Höhere Mathematik für Ingenieure, Band II: Lineare Algebra [5 ed.] 3835101110, 9783835101111


110 66 5MB

English Pages [427] Year 2007

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Höhere Mathematik für Ingenieure, Band II: Lineare Algebra [5 ed.]
 3835101110, 9783835101111

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Klemens Burg, Herbert Haf, Friedrich Wille

Höhere Mathematik für Ingenieure

Klemens Burg, Herbert Haf, Friedrich Wille

Höhere Mathematik für Ingenieure Band II: Lineare Algebra 5., überarbeitete und erweiterte Auflage Bearbeitet von Prof. Dr. rer. nat. Herbert Haf, Universität Kassel und Prof. Dr. rer. nat. Andreas Meister, Universität Kassel

Bibliografische Information der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar. Prof. Dr. rer. nat. Klemens Burg †, geb. 1934 in Bochum. 1954-1956 Tätigkeit in der Industrie. 1956 -1961 Studium der Mathematik und Physik an der RWTH Aachen. 1961 Diplomprüfung in Mathematik. 1964 Promotion, 1961-1973 Wiss. Ass. und Akad. Rat/Oberrat, 1970 Habilitation. 1973-1975 Wiss. Rat und Prof. an der Universität Karlsruhe. 1975-2002 Prof. für Ingenieurmathematik an der Universität Kassel. Arbeitsgebiete: Mathematische Physik, Ingenieurmathematik Prof. Dr. rer. nat. Herbert Haf, geb. 1938 in Pfronten/Allgäu. 1956-1960 Studium der Feinwerktechnik-Optik am Oskar-von-MillerPolytechnikum München. 1960-1966 Studium der Mathematik und Physik an der RWTH Aachen. 1966 Diplomprüfung in Mathematik. 1966-1970 Wiss. Ass., 1968 Promotion. 1970-1974 Akad. Rat/Oberrat an der Universität Stuttgart. 1968-1974 Lehraufträge an der Universität Stuttgart. 1974-2003 Prof. für Mathematik (Analysis) an der Universität Kassel. Arbeitsgebiete: Funktionalanalysis, Verzweigungstheorie, Approximationstheorie Prof. Dr. rer. nat. Friedrich Wille †, geb. 1935 in Bremen. 1955-1961 Studium der Mathematik und Physik an den Universitäten Marburg, Berlin und Göttingen. 1961 Diplom, anschließend Industriepraxis. 1963-1968 Wiss. Mitarb. der Aerodynamischen Versuchsanstalt (AVA) Göttingen. 1965 Promotion, Leiter des Rechenzentrums Göttingen. 1968-1971 Wiss. Ass. der Deutschen Forschungs- und Versuchsanstalt für Luft- und Raumfahrt (DFVLR). 1970 Battelle-Institut Genf. 1971 Habilitation, 1972 Wiss. Rat und Prof. in Düsseldorf. 1973-1995 Prof. für Angewandte Mathematik an der Universität Kassel. Arbeitsgebiete: Aeroelastik, Nichtlineare Analysis, math. Modellierung Prof. Dr. rer. nat. Andreas Meister, geb. 1966 in Einbeck. 1987-1993 Studium der Mathematik mit Nebenfach Informatik an der Georg-August-Universität Göttingen. 1993 Diplomprüfung in Mathematik. 1993-1996 Promotionsstipendium an der Deutschen Forschungsanstalt für Luft- und Raumfahrt in Göttingen, 1996 Promotion an der TH Darmstadt. 1996 Wiss. Mitarb. am Fraunhofer Institut für Techno- und Wirtschaftsmathematik Kaiserslautern. 1996-1997 Wiss. Mitarb., 1997-2002 Wiss. Ass. an der Universität Hamburg. 2001 Habilitation und Privatdozent am FB Mathematik der Universität Hamburg. 2002-2003 Hochschuldozent an der Universität zu Lübeck. Seit 2003 Prof. für Angewandte Mathematik an der Universität Kassel. Arbeitsgebiete: Numerik partieller Differentialgleichungen und Numerik linearer Gleichungssysteme.

1. Auflage 1987 5., überarbeitete und erweiterte Auflage März 2007

Alle Rechte vorbehalten © B. G. Teubner Verlag / GWV Fachverlage GmbH, Wiesbaden 2007 Lektorat: Ulrich Sandten / Kerstin Hoffmann Der B. G. Teubner Verlag ist ein Unternehmen von Springer Science+Business Media. www.teubner.de Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Umschlaggestaltung: Ulrike Weigel, www.CorporateDesignGroup.de Druck und buchbinderische Verarbeitung: Strauss Offsetdruck, Mörlenbach Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier. Printed in Germany

ISBN 978-3-8351-0111-1

Vorwort Der vorliegende Band II der Höheren Mathematik für Ingenieure enthält eine in sich geschlossene Darstellung der »Linearen Algebra« mit vielfältigen Bezügen zur Technik und Naturwissenschaft. Adressaten sind in erster Linie Ingenieurstudenten, aber auch Studenten der Angewandten Mathematik und Physik, etwa der Richtungen Technomathematik, mathematische Informatik, theoretische Physik. Sicherlich wird auch der »reine« Mathematiker für ihn Interessantes in dem Buch finden. Der Band ist — bis auf wenige Querverbindungen — unabhängig vom Band I »Analysis« gestaltet, so daß man einen Kursus über Ingenieurmathematik auch mit dem vorliegenden Buch beginnen kann. (Beim Studium der Elektrotechnik wird z.B. gerne mit Linearer Algebra begonnen.) Vorausgesetzt werden lediglich Kenntnisse aus der Schulmathematik. Auch die einzelnen Abschnitte des Buches sind mit einer gewissen Unabhängigkeit voneinander konzipiert, so daß Quereinstiege möglich sind. Dem Leser, der schon einen ersten Kursus über Lineare Algebra absolviert hat, steht mit diesem Band ein Nachschlagewerk zur Verfügung, welches ihm in der Praxis oder beim Examen eine Hilfe ist. Die Bedeutung der Linearen Algebra für Technik und Naturwissenschaft ist in diesem Jahrhundert stark gestiegen. Insbesondere ist die Matrizen-Rechnung, die sich erst in den dreißiger Jahren in Physik und Technik durchzusetzen begann, heute ein starkes Hilfsmittel in der Hand des Ingenieurs. Darüber hinaus führt die Synthese von Linearer Algebra und Analysis zur Funktionalanalysis, die gerade in den letzten Jahrzehnten zu einem leistungsfähigen theoretischen Instrumentarium für Naturwissenschaft und Technik geworden ist. Im ganzen erweist sich die Lineare Algebra — abgesehen von der elementaren Vektorrechnung — als ein Stoff mit höherem Abstraktionsgrad als er bei der Analysis auftritt. Obwohl dies dem Ingenieurstudenten zu Anfang gewisse Schwierigkeiten bereiten kann, so entspricht es doch der Entwicklung unserer heutigen Technik, die nach immer effektiveren mathematischen Methoden verlangt. Zum Inhalt: Im Abschnitt 1 wird die Vektorrechnung in der Ebene und im dreidimensionalen Raum ausführlich entwickelt. Ihre Verwendbarkeit wird an vielen Anwendungsbeispielen aus dem Ingenieurbereich gezeigt. Im Abschnitt 2 werden endlichdimensionale Vektorräume behandelt, wobei mit dem Spezialfall des Rn begonnen wird, sowie dem Gaußschen Algorithmus zur Lösung linearer Gleichungssyteme. Der Gaußsche Algorithmus zieht sich dann als Schlüsselmethode sowohl bei praktischen wie bei theoretischen Folgerungen durch das ganze Buch. Im zweiten Teil des Abschnittes 2 werden algebraische Grundstrukturen (Gruppen, Körper sowie Vektorräume in moderner abstrakter Form eingeführt. Diesen Teil mag der Ingenieurstudent beim ersten Durchgang überspringen, wenngleich die algebraischen Strukturen für ein späteres tieferes Verständnis notwendig sind. Der Abschnitt 3 enthält dann in ausführlicher Form die Theorie der Matrizen, verbunden mit

VI

linearen Gleichungssystemen, Eigenwertproblemen und geometrischen Anwendungen im dreidimensionalen Raum. Zu diesem mächtigen Instrument für Theorie und Anwendung werden überdies numerische Verfahren für den Computereinsatz angegeben, und zwar bei linearen Gleichungssytemen mit kleinen und großen (schwach besetzten) Matrizen, sowie bei Eigenwertproblemen. Der vierte Abschnitt behandelt in exemplarischer Weise aktuelle Anwendungen der Linearen Algebra auf die Theorie der Stabwerke, der elektrischen Netzwerke, sowie der Robotik. Hier wird insbesondere ein Einblick in die Kinematik technischer Roboter gegeben. Da der Band weit mehr Stoff enthält, als man in einer Vorlesung unterbringen kann, ließe sich ein Kursus für Anfänger an Hand des folgenden »Fahrplans« zusammenstellen: • Vektorrechnung im R2 und R3 (Auswahl aus Abschnitt 1) • Vektorräume Rn und Cn , lineare Gleichungssysteme, Gaußscher Algorithmus (Abschnitte 2.1 und 2.2 bis 2.2.4) • Matrizenrechnung (Auswahl aus 3.1-3.3, dazu 3.5.1) • Determinanten (Auswahl aus 3.4, Schwerpunkt 3.4.9) • Lineare Gleichungssysteme (Abschnitte 3.6.1 und 3.6.3)1 • Eigenwerte und Eigenvektoren (3.7.1, 3.7.2, 3.7.5; Auswahl aus 3.7.3 und 3.7.4)1 • Matrix-Polynome (Auswahl aus 3.9.1-3.9.3) • Drehungen, Koordinatentransformationen (Abschnitte 3.10.1, 3.10.3, 3.10.6 und • 3.10.8: Satz über Hauptachsentransformation ohne Beweis) • Kegelschnitte und Flächen 2. Ordnung (Abschnitte 3.10.9, 3.10.10, zur Erholung, falls noch Zeit bleibt) Durch eingestreute Anwendungen, insbesondere aus dem Abschnitt 4, läßt sich der Stoff anreichern. Das Buch ist in Zusammenarbeit aller drei Verfasser entstanden. Die Kapitel 1 und 2, die Abschnitte 3.1 bis 3.8 sowie Abschnitt 3.10 wurden von Friedrich Wille verfaßt. Das Anwendungskapitel 4, Abschnitt 3.9 und einige weitere Teile stammen von Herbert Haf. Dabei wurden beide Autoren durch ein Skriptum von Klemens Burg unterstützt. Die Autoren danken Herrn Doz.Dr. W. Strampp, Herrn Dr. B. Billhardt und Herrn F. Renner für geleistete Korrekturarbeiten und Aufgabenlösungen. Herrn K. Strube gilt unser Dank für das sorgfältige Anfertigen der Bilder und Frau E. Münstedt für begleitende Schreibarbeiten. Unser besonderer Dank gilt Frau F. Ritter, die mit äußerster Sorgfalt den allergrößten Teil der Reinschrift erstellt hat. Schließlich danken wir dem Teubner-Verlag für geduldige und hilfreiche Zusammenarbeit in allen Phasen. Die günstige Aufnahme dieses Bandes erfordert schon nach kurzer Zeit eine Neuauflage. Der Text ist gegenüber der Erstauflage unverändert geblieben. Es wurden lediglich einige Figuren 1 Man beachte, daß in der Neuauflage aus Abschnitt 3.6 Abschnitt 3.8 wurde (also aus 3.6.1 3.8.1 usw.) und aus Abschnitt 3.7 der Abschnitt 3.6 (also aus 3.7.1 3.6.1 usw.).

VII

verbessert und Druckfehler ausgemerzt. Die Verfasser erhoffen ein weiterhin positives Echo auch dieser Auflage durch den Leser. Kassel, September 1989

Die Verfasser

Vorwort zur fünften Auflage Die vorliegende fünfte Auflage des Bandes »Lineare Algebra« stellt eine Überarbeitung und Erweiterung der früheren Auflage dar. Dabei wurden die Numerik-Anteile mit Rücksicht auf die Anwender deutlich erweitert und durch die Angabe von MATLAB-Programmen ergänzt. Ferner haben wir den Abschnitt über lineare Ausgleichsprobleme ausgebaut und, wie wir meinen, im Gesamtkontext günstiger plaziert (s. Abschn. 3.11). Die Verfasser hoffen nun, daß dieser zweite Band unseres sechsteiligen Gesamtwerkes »Mathematik für Ingenieure« auch weiterhin eine freundliche Aufnahme durch die Leser findet. Für Anregungen sind wir dankbar. Unser Dank gilt insbesondere Herrn Dr.-Ing. Jörg Barner für die Erstellung der hervorragenden LATEX-Vorlage und seine sorgfältige und mitdenkende Unterstützung bei den Korrekturen, ferner Frau Jennylee Müller für ihr gewissenhaftes Korrekturlesen. Erneut besteht dem Verlag B.G. Teubner gegenüber Anlaß zum Dank für eine bewährte und angenehme Zusammenarbeit. Kassel, Februar 2007

Herbert Haf, Andreas Meister

Inhaltsverzeichnis 1

2

Vektorrechnung in zwei und drei Dimensionen 1.1 Vektoren in der Ebene . . . . . . . . . . . . . . . . . . . . . . 1.1.1 Kartesische Koordinaten und Zahlenmengen . . . . . . . 1.1.2 Winkelfunktionen und Polarkoordinaten . . . . . . . . . . 1.1.3 Vektoren im R2 . . . . . . . . . . . . . . . . . . . . . . . 1.1.4 Physikalische und technische Anwendungen . . . . . . . 1.1.5 Inneres Produkt (Skalarprodukt) . . . . . . . . . . . . . . 1.1.6 Parameterform und Hessesche Normalform einer Geraden 1.1.7 Geometrische Anwendungen . . . . . . . . . . . . . . . . 1.2 Vektoren im dreidimensionalen Raum . . . . . . . . . . . . . 1.2.1 Der Raum R3 . . . . . . . . . . . . . . . . . . . . . . . . 1.2.2 Inneres Produkt (Skalarprodukt) . . . . . . . . . . . . . . 1.2.3 Dreireihige Determinanten . . . . . . . . . . . . . . . . . 1.2.4 Äußeres Produkt (Vektorprodukt) . . . . . . . . . . . . . 1.2.5 Physikalische, technische und geometrische Anwendungen 1.2.6 Spatprodukt, mehrfache Produkte . . . . . . . . . . . . . 1.2.7 Lineare Unabhängigkeit . . . . . . . . . . . . . . . . . . 1.2.8 Geraden und Ebenen im R3 . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

1 1 1 3 8 13 22 26 32 41 41 46 49 50 55 63 67 70

Vektorräume beliebiger Dimensionen 75 2.1 Die Vektorräume Rn und Cn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 2.1.1 Der Raum Rn und seine Arithmetik . . . . . . . . . . . . . . . . . . . . . . . 75 2.1.2 Inneres Produkt, Beträge von Vektoren . . . . . . . . . . . . . . . . . . . . . 76 2.1.3 Unterräume, lineare Mannigfaltigkeiten . . . . . . . . . . . . . . . . . . . . . 78 2.1.4 Geometrie im Rn , Winkel, Orthogonalität . . . . . . . . . . . . . . . . . . . . 82 2.1.5 Der Raum Cn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 2.2 Lineare Gleichungssysteme, Gaußscher Algorithmus . . . . . . . . . . . . . . . . 86 2.2.1 Lösung quadratischer Gleichungssysteme . . . . . . . . . . . . . . . . . . . . 87 2.2.2 Matlab-Programme zur Lösung quadratischer Gleichungssysteme . . . . . . . 90 2.2.3 Singuläre lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . 96 2.2.4 Allgemeiner Satz über die Lösbarkeit linearer quadratischer Gleichungssysteme 101 2.2.5 Rechteckige Systeme, Rangkriterium . . . . . . . . . . . . . . . . . . . . . . 104 2.3 Algebraische Strukturen: Gruppen und Körper . . . . . . . . . . . . . . . . . . . . 106 2.3.1 Einführung: Beispiel einer Gruppe . . . . . . . . . . . . . . . . . . . . . . . . 106 2.3.2 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 2.3.3 Endliche Permutationsgruppen . . . . . . . . . . . . . . . . . . . . . . . . . . 114 2.3.4 Homomorphismen, Nebenklassen . . . . . . . . . . . . . . . . . . . . . . . . 116 2.3.5 Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119

X

Inhaltsverzeichnis

2.4 Vektorräume über beliebigen Körpern . . . . . . . . . . 2.4.1 Definition und Grundeigenschaften . . . . . . . . . 2.4.2 Beispiele für Vektorräume . . . . . . . . . . . . . . 2.4.3 Unterräume, Basis, Dimension . . . . . . . . . . . . 2.4.4 Direkte Summen, freie Summen . . . . . . . . . . . 2.4.5 Lineare Abbildungen: Definition und Beispiele . . . 2.4.6 Isomorphismen, Konstruktion linearer Abbildungen . 2.4.7 Kern, Bild, Rang . . . . . . . . . . . . . . . . . . . 2.4.8 Euklidische Vektorräume, Orthogonalität . . . . . . 2.4.9 Ausblick auf die Funktionalanalysis . . . . . . . . . 3

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

121 121 123 125 130 133 136 139 141 143

Matrizen 3.1 Definition, Addition, s-Multiplikation . . . . . . . . . . . . . . . . . 3.1.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.2 Grundlegende Begriffsbildung . . . . . . . . . . . . . . . . . . . 3.1.3 Addition, Subtraktion und s-Multiplikation . . . . . . . . . . . . 3.1.4 Transposition, Spalten-und Zeilenmatrizen . . . . . . . . . . . . 3.2 Matrizenmultiplikation . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.1 Matrix-Produkt . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.2 Produkte mit Vektoren . . . . . . . . . . . . . . . . . . . . . . . 3.2.3 Matrizen und lineare Abbildungen . . . . . . . . . . . . . . . . . 3.2.4 Blockzerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Reguläre und inverse Matrizen . . . . . . . . . . . . . . . . . . . . . 3.3.1 Reguläre Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.2 Inverse Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.1 Definition, Transpositionsregel . . . . . . . . . . . . . . . . . . . 3.4.2 Regeln für Determinanten . . . . . . . . . . . . . . . . . . . . . 3.4.3 Berechnung von Determinanten mit dem Gaußschen Algorithmus 3.4.4 Matrix-Rang und Determinanten . . . . . . . . . . . . . . . . . . 3.4.5 Der Determinanten-Multiplikationssatz . . . . . . . . . . . . . . 3.4.6 Lineare Gleichungssysteme: die Cramersche Regel . . . . . . . . 3.4.7 Inversenformel . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.8 Entwicklungssatz . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.9 Zusammenstellung der wichtigsten Regeln über Determinanten . 3.5 Spezielle Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5.1 Definition der wichtigsten speziellen Matrizen . . . . . . . . . . 3.5.2 Algebraische Strukturen von Mengen spezieller Matrizen . . . . . 3.5.3 Orthogonale und unitäre Matrizen . . . . . . . . . . . . . . . . . 3.5.4 Symmetrische Matrizen und quadratische Formen . . . . . . . . . 3.5.5 Zerlegungen und Transformationen symmetrischer Matrizen . . . 3.5.6 Positiv definite Matrizen und Bilinearformen . . . . . . . . . . . 3.5.7 Kriterien für positiv definite Matrizen . . . . . . . . . . . . . . . 3.5.8 Direkte Summe und direktes Produkt von Matrizen . . . . . . . . 3.6 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

147 147 147 147 149 152 154 154 157 158 162 164 164 166 168 169 171 174 178 180 181 183 186 189 191 191 195 197 200 201 204 206 209 211

Inhaltsverzeichnis

3.6.1 Definition von Eigenwerten und Eigenvektoren . . . . . . . . . . . . . . . . . 3.6.2 Anwendung: Schwingungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6.3 Eigenschaften des charakteristischen Polynoms . . . . . . . . . . . . . . . . . 3.6.4 Eigenvektoren und Eigenräume . . . . . . . . . . . . . . . . . . . . . . . . . 3.6.5 Symmetrische Matrizen und ihre Eigenwerte . . . . . . . . . . . . . . . . . . 3.7 Die Jordansche Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.1 Praktische Durchführung der Transformation auf Jordansche Normalform . . . 3.7.2 Berechnung des charakteristischen Polynoms und der Eigenwerte einer Matrix mit dem Krylov-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.3 Das Jacobi-Verfahren zur Berechnung von Eigenwerten und Eigenvektoren symmetrischer Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.4 Von-Mises-Iteration, Deflation und inverse Iteration zur numerischen Eigenwert- und Eigenvektorberechnung . . . . . . . . . . . . . . . . . . . . . . . . 3.8 Lineare Gleichungssysteme und Matrizen . . . . . . . . . . . . . . . . . . . . . . 3.8.1 Rangkriterium . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.8.2 Quadratische Systeme, Fredholmsche Alternative . . . . . . . . . . . . . . . . 3.8.3 Dreieckszerlegung von Matrizen durch den Gaußschen Algorithmus, CholeskyVerfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.8.4 Lösung großer Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . 3.8.5 Einzelschrittverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.9 Matrix-Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.9.1 Matrix-Potenzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.9.2 Matrixpolynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.9.3 Annullierende Polynome, Satz von Cayley-Hamilton . . . . . . . . . . . . . . 3.9.4 Das Minimalpolynom einer Matrix . . . . . . . . . . . . . . . . . . . . . . . 3.9.5 Folgen und Reihen von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . 3.9.6 Potenzreihen von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.9.7 Matrix-Exponentialfunktion, Matrix-Sinus- und Matrix-Cosinus-Funktion . . . 3.10 Drehungen, Spiegelungen, Koordinatentransformationen . . . . . . . . . . . . . . 3.10.1 Drehungen und Spiegelungen in der Ebene . . . . . . . . . . . . . . . . . . . 3.10.2 Spiegelung im Rn , Q R-Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . 3.10.3 Drehungen im dreidimensionalen Raum . . . . . . . . . . . . . . . . . . . . . 3.10.4 Spiegelungen und Drehspiegelungen im dreidimensionalen Raum . . . . . . . 3.10.5 Basiswechsel und Koordinatentransformation . . . . . . . . . . . . . . . . . . 3.10.6 Transformation bei kartesischen Koordinaten . . . . . . . . . . . . . . . . . . 3.10.7 Affine Abbildungen und affine Koordinatentransformationen . . . . . . . . . . 3.10.8 Hauptachsentransformation von Quadriken . . . . . . . . . . . . . . . . . . . 3.10.9 Kegelschnitte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.10.10 Flächen zweiten Grades: Ellipsoide, Hyperboloide, Paraboloide . . . . . . . . 3.11 Lineare Ausgleichsprobleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.11.1 Die Methode der kleinsten Fehlerquadrate . . . . . . . . . . . . . . . . . . . . 3.11.2 Lösung der Normalgleichung . . . . . . . . . . . . . . . . . . . . . . . . . . 3.11.3 Lösung des Minimierungsproblems . . . . . . . . . . . . . . . . . . . . . . .

XI

211 214 217 223 228 235 240 249 251 254 260 260 262 264 269 277 282 282 284 286 291 293 296 300 304 305 307 310 317 318 321 323 325 330 333 337 337 346 347

XII

4

Inhaltsverzeichnis

Anwendungen 4.1 Technische Strukturen . . . . . . . . . . . . . . 4.1.1 Ebene Stabwerke . . . . . . . . . . . . . . . 4.1.2 Elektrische Netzwerke . . . . . . . . . . . . 4.2 Roboter-Bewegung . . . . . . . . . . . . . . . . 4.2.1 Einführende Betrachtungen . . . . . . . . . 4.2.2 Kinematik eines (n + 1)-gliedrigen Roboters

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

359 359 359 366 376 376 377

Anhang

387

A Lösungen zu den Übungen

389

Symbole

397

Literaturverzeichnis

399

Stichwortverzeichnis

405

Band I: Analysis (F. Wille† , bearbeitet von H. Haf, A. Meister) 1

Grundlagen

1.1 1.2 1.3 1.4 1.5 1.6

Reelle Zahlen Elementare Kombinatorik Funktionen Unendliche Folgen reeller Zahlen Unendliche Reihen reeller Zahlen Stetige Funktionen

2

Elementare Funktionen

2.1 2.2 2.3 2.4 2.5

Polynome Rationale und algebraische Funktionen Trigonometrische Funktionen Exponentialfunktionen, Logarithmus, Hyperbelfunktionen Komplexe Zahlen

3

Differentialrechnung einer reellen Variablen

3.1 3.2 3.3

Grundlagen der Differentialrechnung Ausbau der Differentialrechnung Anwendungen

4

Integralrechnung einer reellen Variablen

4.1 4.2 4.3 4.4

Grundlagen der Integralrechnung Berechnung von Integralen Uneigentliche Integrale Anwendung: Wechselstromrechnung

5

Folgen und Reihen von Funktionen

5.1 5.2 5.3 5.4 5.5

Gleichmäßige Konvergenz von Funktionenfolgen und -reihen Potenzreihen Der Weierstraß’sche Approximationssatz Interpolation Fourierreihen

6

Differentialrechnung mehrerer reeller Variabler

6.1 6.2 6.3 6.4

Der n-dimensionale Raum Rn Abbildungen im Rn Differenzierbare Abbildungen von mehreren Variablen Gleichungssysteme, Extremalprobleme, Anwendungen

XIV

7

Integralrechnung mehrerer reeller Variabler

7.1 7.2 7.3

Integration bei zwei Variablen Allgemeinfall: Integration bei mehreren Variablen Parameterabhängige Integrale

Band III: Gewöhnliche Differentialgleichungen, Distributionen, Integraltransformationen (H. Haf) Gewöhnliche Differentialgleichungen 1

Einführung in die gewöhnlichen Differentialgleichungen

1.1 1.2 1.3 1.4

Was ist eine Differentialgleichung? Differentialgleichungen 1-ter Ordnung Differentialgleichungen höherer Ordnung Ebene autonome Systeme

2

Lineare Differentialgleichungen

2.1 2.2 2.3 2.4 2.5

Lösungsverhalten Homogene lineare Systeme 1-ter Ordnung Inhomogene lineare Systeme 1-ter Ordnung Lineare Differentialgleichungen n-ter Ordnung Beispiele mit Mathematica

3

Lineare Differentialgleichungen mit konstanten Koeffizienten

3.1 3.2 3.3

Lineare Differentialgleichungen höherer Ordnung Lineare Systeme 1-ter Ordnung Beispiele mit Mathematica

4

Potenzreihenansätze und Anwendungen

4.1 4.2

Potenzreihenansätze Verallgemeinerte Potenzreihenansätze

5

Rand- und Eigenwertprobleme. Anwendungen

5.1 5.2 5.3

Rand- und Eigenwertprobleme Anwendung auf eine partielle Differentialgleichung Anwendung auf ein nichtlineares Problem

Distributionen 6

Verallgemeinerung des klassischen Funktionsbegriffs

6.1 6.2

Motivierung und Definition Distributionen als Erweiterung der klassischen Funktionen

XV

7

Rechnen mit Distributionen. Anwendungen

7.1 7.2

Rechnen mit Distributionen Anwendungen

Integraltransformationen 8

Fouriertransformation

8.1 8.2 8.3 8.4 8.5

Motivierung und Definition Umkehrung der Fouriertransformation Eigenschaften der Fouriertransformation Anwendung auf partielle Differentialgleichungsprobleme Diskrete Fouriertransformation

9

Laplacetransformation

9.1 9.2 9.3 9.4

Motivierung und Definition Umkehrung der Laplacetransformation Eigenschaften der Laplacetransformation Anwendungen auf gewöhnliche lineare Differentialgleichungen

10

Z-Transformation

10.1 10.2 10.3

Motivierung und Definition Eigenschaften der Z-Transformation Anwendungen auf gewöhnliche lineare Differentialgleichungen

Band Vektoranalysis: (F. Wille† , bearbeitet von H. Haf) 1

Kurven

1.1 1.2 1.3 1.4 1.5 1.6

Wege, Kurven, Bogenlänge Theorie ebener Kurven Beispiele ebener Kurven I: Kegelschnitte Beispiele ebener Kurven II: Rollkurven, Blätter, Spiralen Theorie räumlicher Kurven Vektorfelder, Potentiale, Kurvenintegrale

2

Flächen und Flächenintegrale

2.1 2.2

Flächenstücke und Flächen Flächenintegrale

3

Integralsätze

3.1 3.2

Der Gaußsche Integralsatz Der Stokessche Integralsatz

XVI

3.3 3.4

Weitere Differential- und Integralformeln im R3 Wirbelfreiheit, Quellfreiheit, Potentiale

4

Alternierende Differentialformen

4.1 4.2

Alternierende Differentialformen im R3 Alternierende Differentialformen im Rn

5

Kartesische Tensoren

5.1 5.2

Tensoralgebra Tensoranalysis

Band Funktionentheorie: (H. Haf) 1

Grundlagen

1.1 1.2

Komplexe Zahlen Funktionen einer komplexen Variablen

2

Holomorphe Funktionen

2.1 2.2 2.3 2.4

Differenzierbarkeit im Komplexen, Holomorphie Komplexe Integration Erzeugung holomorpher Funktionen durch Grenzprozesse Asymptotische Abschätzungen

3

Isolierte Singularitäten, Laurent-Entwicklung

3.1 3.2

Laurentreihen Residuensatz und Anwendungen

4

Konforme Abbildungen

4.1 4.2

Einführung in die Theorie konformer Abbildungen Anwendungen auf die Potentialtheorie

5

Anwendung der Funktionentheorie auf die Besselsche Differentialgleichung

5.1 5.2 5.3

Die Besselsche Differentialgleichung Die Besselschen und Neumannschen Funktionen Anwendungen

Band Funktionalanalysis und Partielle Differentialgleichungen: (H. Haf) Funktionalanalysis 1

Grundlegende Räume

1.1 1.2

Metrische Räume Normierte Räume. Banachräume

XVII

1.3

Skalarprodukträume. Hilberträume

2

Lineare Operatoren in normierten Räumen

2.1 2.2 2.3

Beschränkte lineare Operatoren Fredholmsche Theorie in Skalarprodukträumen Symmetrische vollstetige Operatoren

3

Der Hilbertraum L 2 (Ω) und zugehörige Sobolevräume

3.1 3.2

Der Hilbertraum L 2 (Ω) Sobolevräume

Partielle Differentialgleichungen 4

Einführung

4.1 4.2 4.3

Was ist eine partielle Differentialgleichung? Lineare partielle Differentialgleichungen 1-ter Ordnung Lineare partielle Differentialgleichungen 2-ter Ordnung

5

Helmholtzsche Schwingungsgleichung und Potentialgleichung

5.1 5.2 5.3 5.4 5.5

Grundlagen Ganzraumprobleme Randwertprobleme Ein Eigenwertproblem der Potentialtheorie Einführung in die Finite-Elemente-Methode (F. Wille† )

6

Die Wärmeleitungsgleichung

6.1 6.2

Rand- und Anfangswertprobleme Ein Anfangswertproblem

7

Die Wellengleichung

7.1 7.2

Die homogene Wellengleichung Die inhomogene Wellengleichung

8

Die Maxwellschen Gleichungen

8.1 8.2

Die stationären Maxwellschen Gleichungen Randwertprobleme

9

Hilbertraummethoden

9.1 9.2 9.3 9.4

Einführung Das schwache Dirichletproblem für lineare elliptische Differentialgleichungen Das schwache Neumannproblem für lineare elliptische Differentialgleichungen Zur Regularitätstheorie beim Dirichletproblem

1

Vektorrechnung in zwei und drei Dimensionen

In Physik und Technik hat man es oft mit Größen zu tun, die durch einen positiven Zahlenbetrag und eine Richtung gekennzeichnet sind. Dazu gehören Kräfte, Verschiebungen, Geschwindigkeiten, Beschleunigungen, Impulse, Feldstärken u.a. Größen dieser Art nennt man Vektoren. Sie werden durch Pfeile dargestellt. Die Pfeillänge entspricht dabei dem Betrag des dargestellten Vektors, während die Pfeilspitze in die Richtung des Vektors weist. (In Fig. 1.1 ist z.B. ein Kraftvektor dargestellt.)

Fig. 1.1: Gewichtskraft, als Vektor dargestellt

Um mit Vektoren rechnen zu können, werden Koordinatensysteme verwendet. Vektoren in der Ebene und im dreidimensionalen Raum sind dabei besonders wichtig, da wir mit ihnen Vorgänge im realen Raum, in dem wir leben, beschreiben können. Aber auch Vektoren in höherdimensionalen Räumen haben große Bedeutung. Ab vier Dimensionen sind sie zwar nur noch algebraische Objekte, doch schreiben wir ihnen trotzdem geometrische Eigenschaften zu, wie Längen, Winkel usw., in Analogie zum dreidimensionalen Fall. Bei der Lösung linearer Gleichungssysteme und anderer Probleme sind die höherdimensionalen Vektoren von größtem Nutzen. Man wird staunen.

1.1

Vektoren in der Ebene

Wir beginnen mit Vektoren in der Ebene. In anschaulicher Weise werden hier viele allgemeine Gesetzmäßigkeiten der Vektorrechnung deutlich, wie sie auch in höherdimensionalen Räumen gelten. Überdies gibt es für ebene Vektoren viele technische Anwendungen. 1.1.1

Kartesische Koordinaten und Zahlenmengen

Rechtwinklige Koordinaten in der Ebene sind dem Leser sicherlich bekannt. Wir erläutern trotzdem kurz, und zwar hauptsächlich, weil jedes Kapitel einen Anfang haben muß, und zweitens, weil die Analytische Geometrie historisch und systematisch mit dem Koordinatenkreuz beginnt. Außerdem werden dabei einige immer wiederkehrende Bezeichnungen eingeführt.

2

1 Vektorrechnung in zwei und drei Dimensionen

Fig. 1.2: Kartesisches Koordinatensystem

Ein kartesisches Koordinatensystem1 in der Ebene wird aus zwei Geraden gebildet, die sich rechtwinklig kreuzen. Eine der Geraden Abszisse oder x-Achse (Sie wird üblicherweise waagerecht skizziert.)die andere Gerade heißt Ordinate oder y-Achse (s. Fig. 1.2). Die beiden Achsen sind wie die reelle Zahlenachse skaliert, und zwar beide im gleichen Maßstab. Sie schneiden sich in ihrem Skalenpunkt Null. Die Skalenwerte auf der Abszisse nennt man x-Werte und auf der Ordinate (na, wie wohl? - Richtig:) y-Werte. Der Kreuzungspunkt der Achsen heißt Ursprung oder Nullpunkt 0 des Koordinatensystems. Jedem Punkt Pder Ebene wird umkehrbar eindeutig ein Zahlenpaar (x, y) zugeordnet, indem man durch P die Parallelen zu den Achsen zieht. Sie schneiden Abszisse und Ordinate in den Skalenwerten x bzw. y. Wir skizzieren P mit dem Zahlenpaar P = (x, y) x und y heißen die kartesischen Koordinaten2 des Punktes P. In allen Teilen der Mathematik, also auch in der Vektorrechnung, dient die Mengennotation der Klarheit und Kürze. Es sei daher an die folgenden Schreibweisen erinnert: x ∈ M bedeutet: x ist ein Element der Menge M, und x  ∈ M das Gegenteil davon. Eine endliche Menge aus den Elementen x1 , x2 , . . . xn kann man in der Form {x1 , x2 , . . . xn } angeben. Dagegen bedeutet {x|A(x)} die Menge der Elemente x, für die die Aussage A(x) zutrifft, und {x ∈ M|A(x)} die Menge aller Elemente x aus M, für die die Aussage A(x) zutrifft. Im Folgenden sind die Bezeichnungen einiger gebräuchlicher Zahlenmengen notiert. N = Menge der natürlichen Zahlen 1, 2, 3, 4, . . . Z = Menge der ganzen Zahlen . . ., −3, −2, −1, 0, 1, 2, 3, . . . Q = Menge der rationalen Zahlen a/b (a ∈ Z, b ∈ N) R = Menge der reellen Zahlen (alle Dezimalzahlen, abbrechende und nichtabbrechende) C = Menge der komplexen Zahlen (s. Burg/Haf/Wille (Analysis) [27], Abschn. 2.5.) Die komplexen Zahlen werden in den ersten Abschnitten dieses Buches nicht gebraucht. Es seien a und b, a < b, zwei reelle Zahlen. Damit werden die folgenden Mengen definiert, 1 Nach René Descartes (1596 – 1650), franz. Philosoph, Mathematiker und Physiker. 2 Auch der Ausdruck »kartesische Komponenten« ist gebräuchlich.

1.1 Vektoren in der Ebene

3

die alle als Intervalle bezeichnet werden. [a, b] = {x ∈ R | a ≤ x ≤ b}

abgeschlossenes beschränktes Intervall

(a, b) = {x ∈ R | a < x < b} offenes beschränktes Intervall3 (a, b] = {x ∈ R | a < x ≤ b} halboffene, beschränkte Intervalle [a, b) = {x ∈ R|a ≤ x < b} Ferner definiert man die folgenden unbeschränkten Intervalle: [a, ∞) = {x ∈ R | a ≤ x} , (a, ∞) = {x ∈ R | a < x} ,

(−∞, a] = {x ∈ R | x ≤ a} , (−∞, a) = {x ∈ R | x < a} ,

(−∞, ∞) = R .

Übung 1.1: Berechne den Abstand der Punkte P = (−3,1) und Q = (9, 6).

Übung 1.2* Berechne den Flächeninhalt des Dreiecks  mit den drei Eckpunkten A = (1,2), B = (6, −1), C = (8,7).

Hinweis: Umschreibe das Dreieck  mit dem kleinstmöglichen Rechteck R, dessen Seiten zu den Koordinatenachsen parallel sind, und berechne zuerst den Flächeninhalt von R \  (R »ohne« )! 1.1.2

Winkelfunktionen und Polarkoordinaten

Über die Winkelfunktionen Sinus, Cosinus, Tangens und Cotangens fassen wir kurz das Wichtigste zusammen. Ausführlicher sind sie in Burg/Haf/Wille (Analysis) [27], Abschn. 2.3 erörtert. Wir legen wieder ein kartesisches Koordinatensystem in der Ebene zugrunde. Man erkennt: Die Menge der Punkte (x, y) mit x 2 + y 2 = 1 (x, y reell) bildet eine Kreislinie in der Ebene (nach Pythagoras, s. Fig. 1.3). Man nennt sie die Einheitskreislinie. Sinus und Cosinus: Es sei P = (x, y) ein beliebiger Punkt auf der Einheitskreislinie und α der zugehörige Winkel. Man versteht darunter den Winkel zwischen der Strecke O P und der positiven x-Achse, der durch Drehung gegen den Uhrzeigersinn, ausgehend von der positiven x-Achse, bestimmt ist (s. Fig. 1.3). Damit definiert man Sinus (sin) und Cosinus (cos) wie folgt x := cos α ,

y := sin α .

(1.1)

cos α und sin α sind also die Koordinaten eines Punktes der Einheitskreislinie. Bemerkung: Winkel werden, wenn nichts anderes gesagt ist, im Bogenmaß gemessen. Darunter verstehen wir die Länge des Einheitskreisbogens (um den Scheitelpunkt des Winkels), der im 3 Aus dem Zusammenhang muß jeweils hervorgehen, ob mit (a, b) ein offenes Intervall oder ein Paar aus den Elementen a und b gemeint ist.

4

1 Vektorrechnung in zwei und drei Dimensionen

Fig. 1.3: Zu P gehörender Winkel α

Fig. 1.4: sin α und cos α

zugehörigen Winkelbereich liegt und dessen Endpunkte auf den Schenkeln des Winkelbereichs liegen (in Fig. 1.3 und 1.4 ist dieser Bogen durch einen stärkeren Strich hervorgehoben). Gradmaß und Bogenmaß eines Winkels hängen dabei folgendermaßen zusammen: Gradmaß = 180

Bogenmaß π

(1.2)

mit der Kreiszahl π = 3,141 592 653 589 793 . . . 4 Die Bedeutung von π liegt bekanntlich darin, daß die Länge einer Kreislinie mit dem Radius r gleich 2πr ist. In (1.1) sind cos α und sin α für 0 ≤ α ≤ 2π(d.h.. von 0◦ bis 360◦ ) erklärt. Man definiert weiterhin:  cos(α + k2π ) := cos α , für 0 ≤ α < 2π sin(α + k2π ) := sin α ,

und ganzes k

Da alle reellen Zahlen t in der Form t = α + 2kπ dargestellt werden können, sind damit cos t und sin t für alle reellen Zahlen t erklärt (s. Funktionsdiagramme in Fig. 1.5).

Fig. 1.5: Sinus- und Cosinusfunktion

Folgerung 1.1: Für alle reellen Zahlen α, β gilt: sin2 α + cos2 α = 1 4 Zur Berechnung von π s. Burg/Haf/Wille (Analysis) [27], Abschn. 3.2.5.

(1.3)

1.1 Vektoren in der Ebene

sin(−α) = − sin α sin(π − α) = sin α π sin(α ± ) = ± cos α 2 sin(α + 2kπ) = sin α (k ganz)

cos(−α) = cos α cos(π − α) = − cos α π cos(α ± ) = ∓ sin α 2 cos(α + 2kπ) = cos α (k ganz)

5

(1.4) (1.5) (1.6) (1.7)

Additionstheoreme für Sinus und Cosinus sin(α ± β) = sin α cos β ± cos α sin β cos(α ± β) = cos α cos β ∓ sin α sin β

(1.8) (1.9)

(Die Gesetze (1.3) bis (1.7) folgen unmittelbar aus der Definition von sin und cos. Die Additionstheoreme werden in Burg/Haf/Wille (Analysis) [27], Abschn. 3.1.7, Satz 3.10 bewiesen.) Tangens und Cotangens. Die Funktionen Tangens (tan) und Cotangens (cot) werden folgendermaßen erklärt: sin α cos α cos α cot α := sin α tan α :=

für alle α  =

π + kπ , k ganz 2

(1.10)

für alle α  = kπ , k ganz

(1.11)

(s. Fig. 1.6, 1.7). Es folgt aus den Additionstheoremen von Sinus und Cosinus:

Fig. 1.6: Tangensfunktion

Fig. 1.7: Cotangensfunktion

Folgerung 1.2: (Additionstheoreme für Tangens und Cotangens) tan(α ± β) =

tan α ± tan β 1 ∓ tan α tan β

(1.12)

6

1 Vektorrechnung in zwei und drei Dimensionen

cot(α ± β) =

cot α cot β ∓ 1 cot β ± cot α

(1.13)

Winkelfunktionen am rechtwinkligen Dreieck: An einem rechtwinkligen Dreieck [A, B, C] mit dem rechten Winkel bei C, dem Winkel α bei A und den Seitenlängen a, b, c gilt (s. Fig. 1.8): a , c a tan α = , b sin α =

b c b cot α = a

cos α =

(1.14) (1.15)

Fig. 1.8: Winkelfunktionen am rechtwinkligen Dreieck

Man gewinnt die Gleichungen (1.14) durch Vergleich mit dem Dreieck in Fig. 1.4 (Dort ist sin α = y/1, cos α = x/1, wobei die Seitenlängen x, y, 1 den Seitenlängen a, b, c in Fig. 1.5 entsprechen). (1.15) folgt aus tan α = sin α/ cos α, cot α = cos α/ sin α. Arcus-Funktionen: Die Funktionen arcsin (Arcussinus, arccos (Arcuscosinus), arctan (Arcustangens), arccot (Arcuscotangens) sind die Umkehrfunktionen von sin, cos, tan und cot, definiert auf den im Folgenden notierten Intervallen  π π bedeutet: x = sin t, t ∈ − , 2 2 t = arccos x, x ∈ [−1,1] bedeutet: x = cos t, t ∈ [0, π]  π π t = arctan x, x ∈ R bedeutet: x = tan t, t ∈ − , 2 2 t = arccot x, x ∈ R bedeutet: x = cot t, t ∈ (0, π ) t = arcsin x, x ∈ [−1,1]

(1.16)

Polarkoordinaten. Jeder Punkt P = (x, y)  = 0 der Ebene ist eindeutig festgelegt durch seinen Abstand r vom Ursprung 0 des Koordinatensystems,und durch den Winkel ϕ zwischen der Strecke O P und der positiven x-Achse. Dabei mißt ϕ den Winkelbereich, den eine Halbgerade überstreicht, die man gegen den Uhrzeigersinn um 0 dreht, und zwar ausgehend von der positiven x-Achse bis zur Halbgeraden durch P(mit Anfangspunkt 0), siehe Fig. 1.10.

1.1 Vektoren in der Ebene

7

Fig. 1.9: Diagramme der Arcusfunktionen

Fig. 1.10: Polarkoordinaten

r und ϕ heißen die Polarkoordinaten von P. Jedem Punkt P = (x, y)  = 0 ist auf diese Weise umkehrbar eindeutig ein Paar (r, ϕ) von Polarkoordinaten zugeordnet, wobei 0 0 ist ϕ =

arctan xy 2π + arctan

y x

falls y ≥ 0 falls y < 0.

Formel (1.17) gilt auch für P = (0,0), d.h. r = 0. Übung 1.3: Berechne die Polarkoordinaten der Punkte P = (1, 3), Q = (−3, − 1), S = (−4, −5).

Übung 1.4: Berechne die kartesischen Koordinaten der Punkte T (r = 3, ϕ = 70◦ ), U (r = 1, ϕ = 43 π), V (r = 2, ϕ = 2,34).

Übung 1.5* y = − 12 x + 2 beschreibt eine Gerade. Wie lautet die zugehörige Geradengleichung r = f (ϕ) in Polarkoordinaten? In welchem Intervall variiert ϕ dabei?

1.1.3

Vektoren im R2

Unter einem zweidimensionalen Vektor v verstehen wir ein Zahlenpaar, das wir senkrecht anordnen wollen:   v v = x , vx , v y ∈ R . 6 vy vx und v y heißen die Koordinaten (oder Komponenten) des Vektors. Die Menge aller dieser Vektoren wird R2 genannt. −→ Man stellt die Vektoren des R2 anschaulich als Pfeile dar. Unter einem Pfeil AB in der Ebene versteht man dabei ein Paar (A, B) aus verschiedenen Punkten der Ebene, die durch eine Strecke verbunden sind. 7 A heißt Aufpunkt (oder Fußpunkt) des Pfeils und B Spitze (markiert durch eine −→ Pfeilspitze). Sonderfall: Unter einem Pfeil A A versteht man einfach den Punkt A. Definition 1.1: −→ Ein Pfeil AB, mit A = (ax , a y ), B = (bx , b y ), stellt genau dann den Vektor   v v= x vy dar, wenn die Koordinaten von v die Differenzen entsprechender Koordinaten von B und A sind: vx = bx − ax ,

vy = by − ay .

(Dabei liegt ein kartesisches Koordinatensystem zugrunde.) 6 Handschriftlich wird der Pfeil → häufig so skizziert: . −→ −→ 7 Man beachte: (A, B)  = (B, A) ⇒ AB  = B A (unter Voraussetzung A  = B).

(1.19)

1.1 Vektoren in der Ebene

−→ Fig. 1.11: Vektor v, dargestellt durch einen Pfeil AB

9

Fig. 1.12: Ortspfeil

Fig. 1.11 macht den Zusammenhang anschaulich. Man sieht sofort: Es gibt viele Pfeile, die ein- und denselben Vektor darstellen. Sie gehen alle durch Parallelverschiebung auseinander hervor.8 Wir können dies so ausdrücken: Alle Pfeile, die parallel und gleich lang sind und in die gleiche Richtung weisen, stellen denselben Vektor dar. Zwei Pfeile, die nicht durch Parallelverschiebung ineinander zu überführen sind, stellen verschiedene Vektoren dar. Sonderfall: Der Nullvektor   0 0= 0 wird durch die Punkte der Ebene dargestellt. − → Ein Pfeil 0B, dessen Fußpunkt 0 der Ursprung des Koordinatensystems ist, heißt ein Ortspfeil (oder Ortsvektor). Der durch den Ortspfeil dargestellte Vektor v hat zweifellos dieselben Koordinaten wie B. Die Ortspfeile der Ebene sind also den Vektoren des R2 umkehrbar eindeutig zugeordnet.

Arithmetik im R2 Definition 1.2: Es seien



   ux v u= , v= x uy vy

8 Das ist vergleichbar mit der Situation, daß ein Gegenstand mehrere Schatten werfen kann: Der Vektor - das Zahlenpaar - ist der Gegenstand, und die ihn darstellenden Pfeile sind gleichsam seine Schatten

10

1 Vektorrechnung in zwei und drei Dimensionen

zwei beliebige Vektoren des R2 . Damit werden folgende Rechenoperationen erklärt:   u x + vx Addition u + v := u y + vy   u x − vx Subtraktion u − v := u y − vy   λu x Multiplikation mit 9 (λ ∈ R) . λu := λu y einem Skalar Man vereinbart:

uλ := λu .

Der negative Vektor zu u ist definiert durch   −u x −u := (−1)u = . −u y Die beschriebenen Rechenarten werden also — kurz gesprochen — »zeilenweise« ausgeführt. Beispiel 1.1:             3 4 7 −1 6 −3 Mit u = ,v = gilt: u + v = ,u−v = , 2u = , −u = . 5 −2 3 7 10 −5

Fig. 1.13: Rechnen mit Vektoren

Veranschaulichung. In Fig. 1.13 sind die Rechenoperationen durch Pfeilkonstruktionen veranschaulicht. Man sieht insbesondere, daß Addition und Subtraktion von Vektoren durch Dreiecks9 Reelle Zahlen werden in der Vektorrechnung auch Skalare genannt (ein Brauch, der von den Physikern kommt.)

1.1 Vektoren in der Ebene

11

konstruktionen widergespiegelt werden. Multiplikation mit Skalaren λ ∈ R bewirkt dagegen Verlängerungen oder Verkürzungen der Pfeile, bzw. eine Richtungsumkehr im Fall λ < 0. (Der Leser mache sich dies alles an Beispielen klar, indem er Pfeile auf Millimeterpapier oder Karopapier zeichnet.) Bei der Darstellung der Rechenoperationen durch Ortspfeile gelangt man zu den Bildern in Fig. 1.14. Summe u + v und Differenz u − v = u + (−v) von Vektoren werden hier durch Parallelogrammkonstruktion gewonnen.

Fig. 1.14: Ortspfeile und ihre Arithmetik

Die folgenden Rechenregeln weist der Leser leicht nach, indem er die folgenden Gleichungen ausführlich in Koordinaten hinschreibt. Satz 1.1: Für alle u, v, w aus R2 gilt: (I) (u + v) + w = u + (v + w) (II) u + v = v + u

Assoziativgesetz für + Kommutativgesetz für +

(III) stets ein x ∈ R2 mit u + x = v ⎪ ⎭ (nämlich x = v − u)

Gleichungslösung

⎫ Zu beliebigen u, v ∈ R2 gibt es⎪ ⎬

Für alle anderen u, v ∈ R2 und alle reelle λ und µ gilt: (IV)

(λµ)u = λ(µu)

(V) λ(u + v) = λu + λv (VI) (λ + µ)u = λu + µu (VII) 1u = u .

Assoziativgesetz für die Multiplikation mit Skalaren Distributivgesetze

Bemerkung: (a) Eine algebraische Struktur, die diese Gesetze erfüllt, heißt ein Vektorraum (über R). Aus diesem Grunde sprechen wir im Folgenden auch vom Vektorraum R2 . (b) Statt λ1 v schreibt man auch kurz λv .

12

1 Vektorrechnung in zwei und drei Dimensionen

(c) Aufgrund der Assoziativgesetze werden Summen u + v + w und Produkte λµx auch ohne Klammern geschrieben. Es kann kein Irrtum auftreten. Dasselbe gilt auch für längere Summen und Produkte. Eine Summe von 5 Vektoren wird z.B. so geschrieben: u+v +w + x + y.

Fig. 1.15: Summe mehrerer Vektoren

Zur Veranschaulichung werden ihre Pfeile einfach kettenartig aneinander gehängt, siehe Fig. 1.15. Die Summe wird dann durch einen Pfeil repräsentiert, der vom Anfangspunkt bis zum Endpunkt der Kette reicht.   v Als Länge oder Betrag eines Vektors v = x bezeichnet man die Zahl vy v :=

 vx2 + v 2y

(Kurzschreibweise v := |v|).

(1.20)

|v| ist gleich der Länge der Pfeile, die v darstellen. Man erkennt dies (mit Pythagoras) aus Fig. 1.11 unmittelbar.10 Die Beträge der Vektoren erfüllen folgende Gesetze: Folgerung 1.3: Für alle u, v ∈ R2 und alle reellen Zahlen λ gilt |λu| = |λ||u| |u| = 0 ⇔ u = 0 |u + v| ≤ |u| + |v| Dreiecksungleichung |u − v| ≥ ||u| − |v||

(1.21) (1.22) (1.23) (1.24)

Beweis: Die ersten beiden Regeln sieht man unmittelbar ein, wenn man Koordinaten einsetzt. Die Dreiecksungleichung (1.23) folgt aus der geometrischen Darstellung der Addition in Fig. 1.13a. Man sieht, daß sich dabei folgender Sachverhalt am Dreieck widerspiegelt: Die Länge |u + v| einer Dreiecksseite ist niemals größer als die Summe der Längen |u| und |v| der beiden übrigen Seiten. 10 |v| wird auch als Euklidische Norm von |v| bezeichnet wahrscheinlich sehr zur Erheiterung von Euklides im Hades, der ja zu Lebzeiten noch nichts von Vektoren wußte.

1.1 Vektoren in der Ebene

13

Die Ungleichung (1.24) — auch zweite Dreiecksungleichung genannt — ergibt sich unmittelbar aus der »ersten« Dreiecksungleichung (1.23). Im Fall |u| ≥ |v| gehen wir so vor: Es gilt |u − v| + |v| ≥ |(u − v) + v| . Die rechte Seite ist gleich |u|, woraus (1.24) folgt. Im Fall |u| ≤ |v| tauschen u und v einfach die Rollen.  Übung 1.6: Gegeben sind





 3 6 −0,5 u= , v= , w= . −4 11 −5,7 (a) Berechne: u + v, u − v, 3u − 7w, |v|, |2v − w|. (b) Skizziere u, v, w und u + v + w.

Übung 1.7: Beweise      N   N ≤  u |ui | i   i=1  i=1 durch vollständige Induktion.

Übung 1.8* Es seien A = (4,3), B = (1,6) gegeben. Welche Entfernung hat der Mittelpunkt der Strecke AB vom Nullpunkt?

1.1.4

Physikalische und technische Anwendungen

In diesem Abschnitt werden Anwendungen beschrieben, die die Brauchbarkeit der ebenen Vektoren zeigen. Wer mehr am systematischen Aufbau der Vektorrechnung interessiert ist, kann gleich mit Abschn. 1.1.5 fortfahren. Kraftvektoren. Kräfte lassen sich als Vektoren deuten, da sie durch Betrag und Richtung charakterisiert sind. Greifen zwei Kräfte F 1 und F 2 an einem Punkt P an, so heißt F = F 1 + F 2 die daraus Resultierende. Sie übt die gleiche Wirkung auf den Punkt P aus wie die beiden Kräfte F 1 und F 2 zusammen. F 1 , F2 und F bilden ein sogenanntes Kräfteparallelogramm, s. Fig. 1.16. Es folgt analog: Greifen mehrere Kräfte F 1 ,. . . , F n in P an, so wirken sie genauso wie ihre Resultierende F = F1 + F2 + . . . + Fn auf P. Ist die Resultierende insbesondere gleich 0, so befindet sich der Punkt im Gleichgewicht.

14

1 Vektorrechnung in zwei und drei Dimensionen

Fig. 1.16: Kräfteparallelogramm

Fig. 1.17: Walze auf schiefer Ebene

Beispiel 1.2: Mit welcher Kraft F drückt eine Walze der Masse m = 50 kg auf eine schiefe Ebene mit einem Neigungswinkel von α = 23◦ ? Die Rolle hat das Gewicht |G| = mg. (g = 9,81m/s2 = Erdbeschleunigung). Fig. 1.17 liefert |F| = mg cos α = 451,4N. Mit der »Hangkraft« H (|H| = mg sin α = 191,7N) ist G = F + H. Beispiel 1.3: (Krafteck) An einem Körper greifen drei Kräfte F 1 , F 2 , F 3 an und zwar in den Punkten P1 , P2 , P3 . Die Kräfte wirken alle in einer Ebene (s. Fig.1.18a). Die Geraden durch P1 , P2 , P3 in Richtung der dort angreifenden Kräfte heißen die Wirkungslinien der Kräfte. Gesucht ist die Wirkungslinie der Resultierenden R = F1 + F2 + F3. Man findet sie so: Zunächst bilde man aus den Pfeilen von F 1 , F 2 , F 3 einen Streckenzug und konstruiere so R, s. Fig. 1.18b.

Fig. 1.18: a) Kräfte an einem Körper, b) Krafteck dazu

Von einem beliebigen Punkt Q aus ziehe man dann Strecken s0 , s1 , s2 , s3 zu den Ecken des Streckenzuges. Anschließend lege man in Fig. 1.18a eine Parallele s0 zu s0 . Durch ihren Schnittpunkt mit der Wirkungslinie von F 1 aus trage man eine Parallele s1 von s1 ab, durch den Schnittpunkt von s1 mit der Wirkungslinie von F 2 dann eine Parallele s2 zu s2 usw. Die Geraden s0 und

1.1 Vektoren in der Ebene

15

s3 , also die erste und letzte der Parallelen, bringe man zum Schnitt. Durch diesen Schnittpunkt S verläuft dann die Wirkungslinie der Resultanten, natürlich in Richtung von R. (Zahlenbeispiel in Üb. 1.10.) Zerlegung von Kräften. In der Mechanik tritt oft das Problem auf, einen Kraftvektor F in zwei Komponenten zu zerlegen, deren Richtungen vorgegeben sind, etwa durch Einheitsvektoren e1 , e2 . D.h. man möchte F so darstellen: F = λe1 + µe2 ,

λ, µ ∈ R .

(1.25)

Dabei sind F 1 = λe1 , F 2 = µe2 die gesuchten Komponenten (s. Fig. 1.19). Schreibt man (1.25) in Koordinaten hin, so entstehen zwei Gleichungen für die zwei Unbekannten λ, µ. Daraus sind λ und µ leicht zu gewinnen, womit das Problem gelöst ist. In Einzelfällen führen einfache geometrische Überlegungen zum Ziel. Beispiel 1.4: Eine Straßenlampe der Masse m = 2,446 kg hängt in der Mitte eines Haltedrahtes, der an den Straßenseiten in gleicher Höhe an Masten befestigt ist (s. Fig. 1.20a). Die Masten sind 15 m voneinander entfernt, und die Lampe hängt 0,6 m durch. Wie groß sind die Spannkräfte in den Drähten?

Fig. 1.19: Zerlegung einer Kraft in zwei Komponenten

Fig. 1.20: Spannkräfte bei einer Lampe

Antwort. In Fig.1.20b sind die Kraftvektoren zu einem Additionsdreieck zusammengesetzt: F 1 + F 2 = G. Man erkennt, daß die Koordinaten x1 , y1 von F 1 den Gleichung xy11 = 7,5 0,6 = 12,5 genügen. Wegen y1 = G/2 = (2,446 · 9,81)/2 N = 12,000 N folgt       12,5 · G/2 150 x1 = = N 11 ⇒ F 1 = 150,48 N. F1 = −G/2 −12 y1 11 Maßeinheiten hinter einem Vektor (hier N = Newton) beziehen sich auf jede Koordinate.

16

1 Vektorrechnung in zwei und drei Dimensionen

Beispiel 1.5: An einem Kran (s. Fig. 1.21a) hänge eine Last, die die Kraft F ausübt. Wie groß sind die Beträge der Kräfte F 1 , F 2 in den Streben s1 , s2 (Schließe und Strebe)? Dabei seien F = 20000N12 , α = 40◦ , β = 30◦ gegeben.

Fig. 1.21: Kran

Zur Beantwortung errechnet man γ = 180◦ − α − β = 110◦ (s. Fig. 1.21 b) und erhält mit dem Sinussatz  F1 = 25 712 N F1 sin α F2 sin γ = , = ⇒ . F sin β F sin β F2 = 37 588 N Geschwindigkeit. Da Geschwindigkeiten durch Betrag und Richtung bestimmt sind, lassen sie sich als Vektoren auffassen.

Beispiel 1.6: Ein Fluß der Breite b (mit geradlinigen, parallelen Ufern) wird von einem Schwimmer rechtwinklig zu den Ufern durchquert.

Fig. 1.22: Schwimmer in Fluß 12 Wir benutzen hier die praktische Kurznotation: F = |F|, F1 = |F 1 |, F2 = |F 2 |.

1.1 Vektoren in der Ebene

17

Die Geschwindigkeit des Flußwassers ist konstant gleich v. Der Schwimmer schwimmt mit der Geschwindigkeit c durchs Wasser. Dieser Geschwindigkeitsvektor ist schräg stromaufwärts gerichtet, da der Schwimmer sich rechtwinklig zum Ufer bewegen möchte (s. Fig. 1.22). Frage: Wie lange Zeit benötigt der Schwimmer für die Überquerung des Flusses? Antwort: Sind c, v, w die Beträge der Vektoren c, v, w (d.h. die zugehörigen Pfeillängen), so folgt aus Fig. 1.22 nach Pythagoras: w 2 = c2 − v 2 . Für die gesuchte Zeitdauer t gilt w = b/t also t=

b b b =  =√ . w c2 − v 2 c 1 − (v/c)2

(Dazu sei folgendes bemerkt: Diese Formel spielt in der Relativitätstheorie beim MichelsonVersuch eine Rolle, mit dem die Nichtexistenz des »Äthers« gezeigt wird. Hierbei bedeutet c die Lichtgeschwindigkeit, v die Geschwindigkeit der Erde im hypothetisch angenommenen Äther und b die Länge des Lichtweges in der Versuchsapparatur). Beschleunigung, Fliehkraft, Coriolis-Kraft.13 Die Bewegung eines Massenpunktes in einer Ebene mit kartesischen Koordinaten kann durch   x(t) r(t) = , t aus einem Intervall, y(t) beschrieben werden, wobei x(t), y(t) die Koordinaten des Massenpunktes zur Zeit t sind. Man denkt sich r(t) durch einen Ortspfeil repräsentiert, an dessen Spitze sich der Massenpunkt befindet. Dabei werden x(t) und y(t) als zweimal stetig differenzierbar vorausgesetzt. Die Geschwindigkeit v(t) und die Beschleunigung a(t) des Punktes zur Zeit t ergeben sich aus  v(t) = r˙ (t) :=

   x(t) ˙ x(t) ¨ , a(t) := r¨ (t) := , y˙ (t) y¨ (t)

(1.26)

wobei x, ˙ y˙ die ersten Ableitungen und x, ¨ y¨ die zweiten Ableitungen von x, y bedeuten.14 Wirkt zur Zeit t die Kraft F(t) auf den Massenpunkt und ist seine Masse gleich m so gilt das Newtonsche Grundgesetz der Mechanik F(t) = ma(t)

kurz: F = ma .

(1.27)

Ein oft vorkommender Fall ebener Bewegungen ist die Rotation auf einer Kreisbahn. Beispiel 1.7: (Gleichförmige Drehbewegung) Bewegt sich ein Massenpunkt der Masse m auf einer Kreisbahn mit der konstanten Winkelgeschwindigkeit ω = 2π/T (T =Umlaufzeit), so kann seine Bewegung 13 Hierfür sind elementare Kenntnisse der Differentialrechnung notwendig. 14 Ableitungen nach Zeit werden gerne durch Punkte markiert

18

1 Vektorrechnung in zwei und drei Dimensionen

durch



r(t) =



cos(ωt) , t ∈ R, > 0,

sin(ωt)

beschrieben werden (Kreisbahn um den Nullpunkt mit Radius ). Man errechnet durch zweimaliges Differenzieren der Koordinaten a(t) = −ω2 r(t),

kurz: a = −ω2 r .

(1.28)

Die Beschleunigung- auch Zentripetalbeschleunigung genannt-hat also den konstanten Betrag ω2 |r| = ω2 und die gleiche Richtung wie −r. Auf den Massenpunkt wirkt daher die Kraft F = −mω2 r

mit dem Betrag |F| = mω2 .

(1.29)

F heißt Zentripetalkraft. Der Massenpunkt übt seinerseits auf den Nullpunkt die Gegenkraft Z = mω2 r

(1.30)

aus. Sie heißt Zentrifugalkraft oder Fliehkraft. Beispiel 1.8: (Corioliskraft im drehenden Koordinatensystem) Gegenüber einem festen kartesischen x, y-System in der Ebene drehe sich ein rechtwinkliges ξ, η-Koordinatensystem mit konstanter Winkelgeschwindigkeit ω (s. Fig. 1.23a). u(t) und w(t) seien Vektoren der Länge 1, die in Richtung der ξ -bzw. η-Achse weisen (t=Zeit). u(t) und w(t) lassen sich so beschreiben:     cos(ωt) − sin(ωt) u(t) = , w(t) = , t ∈ R. sin(ωt) cos(ωt)   x zur Zeit t im drehenden Koordinatensystem die Koordinaten ξ(t), η(t), y so läßt er sich durch

Hat ein Punkt r =

r = ξ u + ηw (s. Fig. 1.23) ausdrücken. (Die Abhängigkeit von t wurde der Übersichtlichkeit halber nicht hingeschrieben.) Der Punkt möge sich frei bewegen, d.h. ξ(t) und η(t) seien beliebige zweimal stetig differenzierbare Funktionen der Zeit t. Differenziert man nun r = ξ u + ηw koordinatenweise zweimal nach t, so erhält man r¨ = (ξ¨ u + ηw) ¨ − 2ω(ηu ˙ − ξ˙ w) − ω2 r .

(1.31)

(Der Leser führe diese Zwischenrechnung aus.) ξ¨ u + ηw ¨ ist dabei die Relativbeschleunigung bzgl. des drehenden Systems, −2ω(ηu ˙ − ξ˙ w) heißt Coriolis-Beschleunigung, und −ω2 r ist die wohlbekannte Zentripetalbeschleunigung.

1.1 Vektoren in der Ebene

19

Fig. 1.23: Drehendes ξ − η-Koordinatensystem

Ist der Punkt mit der Masse m behaftet, so wirkt auf ihn die Kraft F = m r¨ = m(ξ¨ u + ηw) ¨ − 2mω(ηu ˙ − ξ˙ w) − mω2 r. Die Kraft setzt sich also aus drei Anteilen zusammen: m(ξ¨ u + ηω) ¨ heißt die relative Trägheitskraft, −2mω(ηu ˙ − ξ˙ w) die Corioliskraft, und −mω2 r, wie schon erläutert, die Zentripetalkraft. Als neuer Kraftanteil tritt hier die Corioliskraft auf. Wir sehen, daß sie verschwindet, wenn sich der Massenpunkt gegenüber dem drehenden System nicht bewegt. Andernfalls wirkt die Corioliskraft rechtwinklig zur Relativgeschwindigkeit im drehenden System. (Man macht sich dies leicht klar, wenn man den Faktor ηu− ˙ ξ˙ w in der Corioliskraft mit der Relativgeschwindigkeit ξ˙ u + ηw ˙ vergleicht.) Es ist schon eine merkwürdige Kraft, die der Franzose Gaspard Gustave Coriolis (1792 – 1843) seinerzeit entdeckt hat. Sie ist z.B. wichtig zum Verständnis der Luftströmungen in der Erdatmosphäre, aber selbstverständlich auch in allen drehenden technischen Systemen. Elektrischer Leiter im Magnetfeld Beispiel 1.9: Ein gradliniger elektrischer Leiter befindet sich in einem Magnetfeld mit konstanter Kraftflußdichte B. Die Richtung des Vektors B steht rechtwinklig zum Leiter. Der Vektor B hat in einer Ebene, die zum Leiter rechtwinklig liegt, die Koordinatendarstellung   −2 4 V s B = 10 . 1 m2 Durch den Leiter fließt ein Strom der Stärke I = 20 A. Frage: Welche Kraft übt das Magnetfeld auf ein Leiterstück von 1 cm Länge aus? Antwort. Die Kraft F auf ein Leiterstück der Länge L hat den Betrag F = I · L · B. 15 F steht rechtwinklig auf B und auf dem Leiter, und zwar so, wie es die Fig. 1.24a zeigt: Stromrichtung, B und F bilden ein »Rechtssystem«. (D.h. es gilt die Korkenzieherregel: Ein zum Leiter paralleler 15 F = |F|, B = |B|.

20

1 Vektorrechnung in zwei und drei Dimensionen

Korkenzieher mit Rechtsgewinde bewegt sich in Stromrichtung, wenn man seinen Griff aus der Richtung von B in die Richtung von F um 90◦ dreht.) Dies alles lehrt die Physik.

Fig. 1.24: a) Elektrischer Leiter im Magnetfeld,

b) Koordinatenebene, rechtwinklig zum Leiter

Um die Koordinaten von F in der x − y-Ebene zu bekommen (s. Fig. 1.24b), drehen   wir   −y x R ◦ wie zunächst B = um 90 gegen den Uhrzeigersinn. Es entsteht der Vektor B = x y man aus Fig. 1.24b erkennt. Damit ist F = λB R mit λ =

I·L·B F = = I · L, B B

also F = I L BR . Setzt man die angegebenen Zahlenwerte ein, so erhält man die gesuchte Kraft als Vektor in der angegebenen Weise     −2 −1 −2 −3 −2 F = 20 · 10 10 N = 10 N. 4 8

Übung 1.9* Eine Fabrikhalle habe einen Querschnitt, wie in Fig. 1.25 (α = 60◦ , β = 40◦ ). Unter dem Dachfirst soll ein Laufkran angebracht werden, der mit der maximalen Masse von m = 3 t = 3000 kg belastet werden soll. Diese Last muß vom Dach aufgefangen werden, d.h. entlang der Dachschrägen treten die Belastungskräfte F 1 und F 2 auf (s. Fig. 1.25). Berechne F 1 und F 2 , sowie sich daraus ergebende Querkräfte Q 1 , Q 2 , die rechtwinklig auf den Wänden stehen.

1.1 Vektoren in der Ebene

Fig. 1.25: Dachbelastung

Fig. 1.26: Kettenkarussell

Übung 1.10: Knüpfe an das Beispiel 1.3 mit dem Krafteck an. Es sei dort





 0 17 28 N , F2 = N , F3 = N, F1 = 20 25 −4 P1 = (−2,2) ,

P2 = (1,1) ,

P2 = (2, −1) .

Berechne die Resultante R und bestimme graphisch die Wirkungslinie von R.

Übung 1.11* Betrachte eine Straßenlampe ähnlich wie in Beispiel 1.4. Die Masten haben wieder die Entfernung 15 m voneinander und die Lampe hat die Masse 2,446 kg. Wie groß muß der Durchhang mindestens sein, wenn die Beträge der Spannkräfte 100 N nicht übersteigen dürfen?

Übung 1.12* Beim Kran in Beispiel 1.5, Fig. 1.21a, denken wir uns den Punkt B senkrecht verschiebbar, während A und C fest bleiben. Wo muß B liegen, wenn die Kraft F 1 längs der Strebe s1 den kleinsten Betrag haben soll? Gib die Lage von B durch Angabe des Winkels β an!

Übung 1.13* In Beispiel 1.6 habe die Geschwindigkeit c des Schwimmers den Betrag c = 0,4 m/s und die Strömungsgeschwindigkeit v des Flusses den Betrag v = 0,23 m/s. Gib c und v in einem Koordinatensystem an, dessen x-Achse parallel zum Ufer verläuft. Wie groß ist die Zeitdauer t der Flußüberquerung (b = 50 m)?

Übung 1.14* Ein Kettenkarussell habe eine Tragstange der Länge r = 2,1 m, eine Kettenlänge von l = 3,7 m, und eine Belastung am Ende der Kette von m = 90 kg. Bei einer bestimmten Umdrehungszeit sei der Auslenkungswinkel α gleich 21◦ .

21

22

1 Vektorrechnung in zwei und drei Dimensionen

Frage: Wie groß ist die Umdrehungszeit T ? Anleitung: Berechne zuerst die Fliehkraft Z aus dem Gewicht G mit |G| = mg(g = 9,81 m/s2 ) und dem Rechteck aus G und Z. Aus Z gewinnt man T (s. Beisp. 1.6).

Übung 1.15* Im Beispiel 1.8 bewege sich ein Massenpunkt der Masse m = 2 kg auf einer Geraden im drehenden System mit ω = 2,1 · 10−2 s−1 . Die Bewegung des Punktes wird beschrieben durch ξ(t) = 1 + 0,25t, η(t) = 0,11t , wobei t in Sekunden und ξ , η in Metern angegeben sind. Berechne (a) die Kraft F(t), die zur Zeit t auf den Massenpunkt wirkt und (b) insbesondere die Corioliskraft zur Zeit t.

Übung 1.16* Zu Beispiel 1.9: Berechne die Kraft  F auf ein Stück von 1 cm Länge des elektrischen Leiters, 3 V s ist und wenn der Strom in entgegengesetzter Richtung wenn I = 14 A, B = 10−2 −2 m2 fließt. (Also von oben nach unten in Fig.1.17a).

1.1.5

Inneres Produkt (Skalarprodukt)

Definition 1.3: Das innere Produkt (oder Skalarprodukt) zweier Vektoren u, v aus R2 ist folgendermaßen definiert u · v := |u| · |v| · cos ϕ

(1.32)

Dabei ist ϕ = (u, v) der Zwischenwinkel der Vektoren u, v. Man versteht darunter das Bogenmaß ϕ ∈ [0, π] des kleineren Winkels zwischen zwei Pfeilen, die u und v darstellen. Die Pfeile haben dabei den gleichen Fußpunkt, s. Fig. 1.27. Das innere Produkt u · v läßt sich geometrisch auf folgende Weise verdeutlichen: Man projiziert den Pfeil von v senkrecht auf die Gerade, die durch den Pfeil von u bestimmt ist, und erhält als Projektion einen Vektor p. p wird kurz die Projektion von v auf u genannt s. Fig. 1.28. p weist in die gleiche Richtung wie u, wenn ϕ < π2 , in die entgegengesetzte, wenn ϕ > π2 , und ist 0, falls ϕ = π/2 ist. π Wegen | p| = |v| cos ϕ, falls 0 ≤ ϕ ≤ , und | p| = −|v| cos ϕ, falls π2 < ϕ ≤ π , gilt 2

1.1 Vektoren in der Ebene

Fig. 1.28: Projektion p von v auf u

Fig. 1.27: Zum inneren Produkt

u · v :=

⎧ ⎨ ⎩

|u| · | p|

falls 0 ≤ ϕ ≤

−|u| · | p| falls

π 2

23

π 2

(1.33)

≤ϕ≤π

oder kürzer: u·v = u· p

(1.34)

Folgerung 1.4: (a) Der Betrag des inneren Produkts u · v ist gleich dem Produkt aus der Länge des Vektors u und der Länge der Projektion p von v auf u. (Natürlich können u und v dabei auch ihre Rollen tauschen). (b) u · v ist positiv, falls der Zwischenwinkel von u und v kleiner als der rechte Winkel ist, und negativ, falls er größer ist. Stehen zwei Vektoren u und v rechtwinklig aufeinander, d.h. (u, v) = π/2, so beschreibt man dies kurz durch u ⊥ v. Man sagt auch, sie stehen senkrecht (oder orthogonal) aufeinander. Mit dem inneren Produkt ist dies folgendermaßen verknüpft: Merke: Zwei Vektoren stehen genau dann rechtwinklig aufeinander, wenn ihr inneres Produkt Null ist: u ⊥ v ⇔ u · v = 0. Physikalische Anwendung des inneren Produktes Eine konstante Kraft F bewege einen Massenpunkt von P nach Q, wobei F nicht notwendig in Richtung von P Q wirke. s sei der Vektor, den P Q darstellt. Dann ist die geleistete Arbeit A = F · s,

24

1 Vektorrechnung in zwei und drei Dimensionen

denn es kommt ja nur der Kraftbetrag F der Projektion von F auf P Q zur Wirkung (s. Fig. 1.29). Man kann diesen physikalischen Sachverhalt als Motivation des inneren Produkts auffassen.

Fig. 1.29: Arbeit

Fig. 1.30: Zum Distributivgesetz

Satz 1.2: (Regeln für das innere Produkt) Für alle Vektoren u, v, w ∈ R2 und alle λ ∈ R gilt (I) (II) (III) (IV)

u·v =v·u (u + v) · w = u · w + v · w λ(u · v) = (λu) · v = u · (λv) u · u = |u|

2

Kommutativgesetz Distributivgesetz Assoziativgesetz inneres Produkt und Betrag

Beweis: Die Gesetze (I), (III), (IV) sieht man unmittelbar ein. Das Distributivgesetz (II) gilt zweifellos für den Spezialfall, daß alle Vektoren u, v, w parallel sind.16 Sind u, v, w nicht parallel, so folgt (II) mit Fig. 1.30 folgendermaßen: (u + v) · w = (u + v ) · w = u · w + v · w = u · w + v · w . Achtung: Allgemein gilt nicht u(v · w) = (u · v)w! Suche Gegenbeispiele! Folgerung 1.5: Das innere Produkt zweier Vektoren     u v u= x , v= x uy vy läßt sich in kartesischen Koordinaten so ausdrücken: 16 D.h. durch parallele Pfeile dargestellt werden



1.1 Vektoren in der Ebene

u · v = u x vx + u y v y

25

(1.35)

Merke: Das innere Produkt zweier Vektoren ergibt sich als Summe der Produkte entsprechender Koordinaten. Beweis: Für die Koordinateneinheitsvektoren     1 0 i= , j= gilt i · i = 1, j · j = 1, i · j = 0, 0 1 da i, j die Länge 1 haben und rechtwinklig aufeinander stehen. Für u = u x i + u y j , v = vx i + v y j folgt durch »Ausmultiplizieren«, was nach (II) erlaubt ist: u · v = u x vx  i · i +u x v y i · j +u y vx j · i +u y v y j · j = u x vx + u y v y .    1

0

0



1

Der Zwischenwinkel ϕ = (u, v) zweier Vektoren     v u u = x , v = x (u, v  = 0) uy vy läßt sich nun leicht aus u · v = |u||v| cos ϕ berechnen. Es folgt cos ϕ = (u · v)/(|u| · |v|), also Zwischenwinkel: ϕ = arccos

u x vx + u y v y u·v = arccos  . |u||v| (u 2 + u 2 )(v 2 + v 2 ) x

Beispiel 1.10: Gegeben sind u =

y

x

y

    5 −1 , v= . Rechnung: 2 6

u · v = 5 · (−1) + 2 · 6 = 7 .

|u|2 = 52 + 22 = 29, |v|2 = (−1)2 + 62 = 37 .

Daraus ergibt sich ϕ = arccos √

7 29 · 37

. . = 1,3554 = 77,66◦ .

(1.36)

26

1 Vektorrechnung in zwei und drei Dimensionen

Quadrat eines Vektors v: Man setzt zur Abkürzung v2 = v · v (Dies ist überdies gleich |v|2 ). Beachte: Andere Potenzen von v sind nicht erklärt! Z.B ergibt v 3 keinen Sinn!–Mit der Quadratschreibweise erhält man durch explizites Ausrechnen sofort die binomischen Formeln: (a ± b)2 = a2 ± 2a · b + b2 ,

(a + b) · (a − b) = a2 − b2 .

(1.37)

Übung 1.17 A = (−2, −1), B = (5,1), C = (1,6) seien die Ecken eines Dreiecks. Berechne die drei Winkel des Dreiecks.

Übung 1.18* Ein Wagen von 2500 kg soll auf einer schiefen Ebene mit 7◦ Steigungswinkel 20 m weit hinaufgezogen werden. Die ihn ziehende konstante Motorkraft betrage 4000 N. Wie groß ist die aufzuwendende Arbeit? — Beachte, daß auf den Wagen zusätzlich die Schwerkraft wirkt!

1.1.6

Parameterform und Hessesche Normalform einer Geraden − → Bei der Behandlung geometrischer Themen werden Ortspfeile 0P gerne mit den dargestellten Vektoren r gleichgesetzt. Um diese Verschmelzung zu verdeutlichen, spricht man von »Ortsvektoren«. D.h.:   − → x Unter dem Ortsvektor r = des Punktes P = (x, y) verstehen wir den Ortspfeil 0P. y Alle eingeführten Rechenoperationen lassen sich mit Ortsvektoren unverändert ausführen, alle Rechenregeln bleiben dabei erhalten. Wen wundert’s? Parameterform einer Geraden. Wir betrachten eine Gerade in einer Ebene mit kartesischem Koordinatensystem. Es sei r 0 der Ortsvektor eines Punktes P0 der Geraden, und s  = 0 ein Vektor, der zur Geraden parallel liegt. Dann werden alle Geradenpunkte P — und nur diese — durch Ortsvektoren der Form r = r 0 + λs ,

mit

λ∈R

(1.38)

dargestellt. Man macht sich dies an Fig. 1.31 klar. Die Gleichung (1.38) heißt Parameterform der Geraden.       x0 s x , s = x erhalten wir die Koordinatendarstellung der ParameterMit r = , r0 = y0 sy y form der Geraden: x = x0 + λsx y = y0 + λs y

λ ∈ R,

1.1 Vektoren in der Ebene

27

Fig. 1.31: Zur Parameterform einer Geraden

Jeder reelle Wert λ (genannt Parameter) liefert dabei genau einen Punkt der Geraden. Alle reellen λ zusammen liefern die gesamte Gerade. Sind zwei Punkte r 0 , r 1 einer Geraden gegeben 17 , so ist r 1 − r 0 = s zweifellos zur Geraden parallel, und die Parameterform der Geraden bekommt die Gestalt r = r 0 + λ(r 1 − r 0 ) , Mit r=

λ ∈ R.

(1.39)

      x x x , r0 = 0 , r1 = 1 y y0 y1

lautet die zugehörige Koordinatendarstellung: x = x0 + λ(x1 − x0 ) y = y0 + λ(y1 − y0 ) . Beispiel 1.11: Die Parameterform der Geraden durch die beiden Punkte     3 −1 , r1 = lautet r = r0 + λ(r 1 − r 0 ), mit r0 = 1 6           x −4 x 3 −4 r= , s = r1 − r0 = , also = +λ , y 5 y 1 5 oder: x = 3 − λ4 y = 1 + λ5 . 17 Genauer gesagt: Es sind die Ortsvektoren r 0 , r 1 zweier Punkte gegeben. Wir werden die hier benutzte vereinfachte Sprechweise aber auch in Zukunft benutzen, um sprachliche Überladung zu vermeiden.

28

1 Vektorrechnung in zwei und drei Dimensionen

Hessesche 18 Normalform einer Geraden: Eine Gerade habe vom Ursprung 0 den Abstand ≥ 0. Der Vektor n mit Länge 1 stehe rechtwinklig zur Geraden, wobei n der Ortsvektor eines Geradenpunktes ist. Für den Ortsvektor r eines beliebigen Geradenpunktes gilt damit n·r =

Hessesche Normalform einer Geraden im R2 .

(1.40)

Fig. 1.32: Zur Hesseschen Normalform

Wir erkennen dies aus Fig. 1.32. Denn das innere Produkt r ·n ist gleich dem Produkt aus |n| = 1 und der Länge der Projektion von r auf die Gerade in Richtung von n. Diese Projektionslänge ist aber gleich . Also n · r = 1 · = . Andere als die Geradenpunkte erfüllen (1.40) offenbar nicht. Die Hessesche Normalform (1.40) einer Geraden ist im Fall > 0 eindeutig bestimmt. Im Fall = 0 gibt es für n offenbar genau zwei Möglichkeiten.     x nx Koordinatendarstellung. Mit r = und n = erhält die Hessesche Normalform y ny der Geraden die Gestalt nx x + n y y = .

(1.41)

Ist hierbei n y  = 0 , so folgt y=−

nx

x+ . ny ny

(1.42)

Dies ist die eine Geradengleichung, wie sie dem Leser sicherlich bekannt ist. Es sei umgekehrt eine Gerade durch die Gleichung y = mx + b

(m, b, x ∈ R)

(1.43)

gegeben, oder allgemeiner durch 18 Nach Ludwig Otto Hesse (1811 – 1874), Prof. für Mathematik in Heidelberg und München, Mitbegründer der modernen analytischen Geometrie.

1.1 Vektoren in der Ebene

ax + by = c

mit c ≥ 0 .

29

(1.44)

Dabei sind a und b nicht beide Null. Wie gewinnen wir die zugehörige Hessesche Normalform? Ein Vergleich von ay + bx = c mit n x x + n y y = zeigt, daß der einzige Unterschied darin besteht, daß n 2x + n 2y = |n|2 = 1 gilt. Man erzwingt dies für die Koeffizienten der ersten √ Gleichung offenbar, wenn man die ganze Gleichung durch a 2 + b2 dividiert. Also Folgerung 1.6: Die Hessesche Normalform der durch ax + by = c, mit c ≥ 0, a 2 + b2 > 0

(1.45)

gegebenen Geraden lautet a b c x+√ y=√ . √ 2 2 2 2 2 a +b a +b a + b2

(1.46)

Mit b

a

c



n , ny = √ , = √ , n= x nx = √ 2 2 2 2 2 2 n y a +b a +b a +b

 (1.47)

erhält (1.46) die vektorielle Gestalt n · r = , womit sich der Kreis schließt. Wir haben dabei als Nebenergebnis bewiesen: Folgerung 1.7: Der Abstand einer Geraden ax + by = c von 0 ist gleich |c|

= √ 2 a + b2

Fig. 1.33: Rechtwinkliges Komplement eines Vektors

(1.48)

30

1 Vektorrechnung in zwei und drei Dimensionen

Rechtwinkliges Komplement eines Vektors   v Oft wird zu einem Vektor v = x  = 0 ein dazu rechtwinkliger Vektor benötigt. Aus Fig. 1.33 vy erkennt man, daß der Vektor 

−v y v := vx



R

(1.49)

zu v rechtwinklig steht und die gleiche Länge wie v hat. Wir nennen v R das rechtwinklige Komplement von v. Der Vektor v R geht aus v durch Drehung um 900 gegen den Uhrzeigersinn hervor.

Umwandlung der Parameterform einer Geraden in die Hessesche Normalform Es sei eine Gerade in der Parameterform r = r 0 + λs, s  = 0, λ ∈ R

(1.50)

gegeben. Man bildet mit dem rechtwinkligen Komplement s R von s daraus  n := n falls ≥ 0 sR . n := , = r 0 · n , := | |, und |s| n := −n falls < 0

(1.51)

Damit ist n · r = die Hessesche Normalform der Geraden. Beispiel 1.12: Eine Gerade habe die Parameterform

r=

x = 5 + λ3 mit y = −10 + λ4

      x 5 3 , r0 = , s= , also r = r 0 + λs. y −10 4

Es folgt:     1 R 1 −4 1 4 n = s = , = r 0 · n = −10 ⇒ = 10, n = −n = . |s| 5 3 5 −3

Die Hessesche Normalform n · r = lautet damit explizit: 45 x − 35 y = 10. Aufgelöst nach y also y = 43 x − 50 3 . Es gibt noch eine zweite Methode: Man geht dabei von dem Ansatz n = r 0 + λ0 s aus, da

n Ortsvektor eines Geradenpunktes sein muß. Da n und s rechtwinklig zueinander stehen, gilt 0 = n · s = (r 0 + λ0 s) · s = r 0 · s + λ0 s · s, woraus

1.1 Vektoren in der Ebene

λ0 = −

r0 · s r 0 + λ0 s , n= , = r0 · n |r 0 + λ0 s| |s|2

31

(1.52)

folgt, und damit die Hessesche Normalform n · r = . Der Rechenaufwand ist hier ein wenig größer. Für praktische Rechnungen ist daher die erste Methode vorzuziehen. Für theoretische Zwecke kann (1.52) gelegentlich nützlich sein, da n hier in einer geschlossenen Formel ohne Fallunterscheidung und ohne Rückgriff auf s R vorliegt. Umwandlung der Hesseschen Normalform einer Geraden in die Parameterform. Aus der Hesseschen Normalform n · r = gewinnt man sofort die Parameterform: r = n + λn R , λ ∈ R .

(1.53)

Dies ist natürlich nicht die einzige, denn die Parameterform einer Geraden ist nicht eindeutig bestimmt. Man kann z.B. zwei beliebige Punkte r 0 , r 1 der Geraden auswählen (ausgerechnet aus n · r = ) und daraus die Parameterdarstellung r = r 0 + λ(r 1 − r 0 ) bilden. Liegt dagegen eine Gerade in der allgemeinen Gestalt ax + by = c

(a, b nicht beide 0)

vor, so ist es nicht nötig, die Gleichung zuerst in eine Hessesche Normalform zu verwandeln.. Man erhält eine Parameterform r = r 0 + λs mit     −b x (1.54) s= , r0 = 0 , a y0 wobei x0 , y0 die Koordinaten irgendeines Punktes der Geraden sind (z.B. x0 = 0, y0 = c/b, falls b  = 0, oder x0 = c/a, y0 = 0, falls b = 0). Beispiel 1.13: Gegeben sei die Geradengleichung 12x − 5y = 26 . Hessesche Normalform dazu:

(1.55) 12 13 x



5 13 y

= 2, mit

    1 12 x , r= , also: n · r = 2 ( = 2) . n= y 13 −5 Daraus gewinnt man eine Parameterform (nach (1.53))     2 12 1 5 r= +λ , λ ∈ R. 13 −5 13 12

32

1 Vektorrechnung in zwei und drei Dimensionen

  x0 wählen, der die Geradengleichung Wir können aber auch einen beliebigen Punkt r 0 = y0   5 (1.55) erfüllt; z.B. errechnet man mit x0 = 0 aus (1.55): y = −26/5. Ferner erhält man s = 12 nach (1.54). Zusammen ergibt sich die Parameterform  r=

   0 5 +λ , λ ∈ R. −26/5 12

(1.56)

(1.55) und (1.56) beschreiben beide die gleiche Gerade! Übung 1.19: (a) Gib die Hessesche Normalform und eine Parameterform der Geraden y = x + 1 an! (b) Wie lautet die Hessesche Normalform der Geraden



 1 −2 r= +λ ? 1 1 Welchen Abstand hat die Gerade vom Nullpunkt?

Übung 1.20: Beweise für die rechtwinkligen Komplemente von Vektoren die folgenden Rechenregeln. Dabei sei v R R := (v R ) R . (a) v R R = −v, (b) (v + u) R = v R + u R , (c) (λv) R = λv R , (d) v R · u R = v · u, (e) v R · u = −v · u R , R R (f) ξ a + ηb = c, a R · b = 0 ⇒ ξ = c R ·b , η = a R ·c .

a ·b

1.1.7

a ·b

Geometrische Anwendungen

Schnittwinkel zweier Geraden: Zwei Geraden bilden zwei Winkel ϕ und ψ miteinander, deren Summe π ist, s. Fig. 1.34. Der kleinere der beiden Winkel sei ϕ, d.h 0 ≤ ϕ ≤ π2 19 . Seine Berechnung geht aus Tabelle 1.1 hervor. 19 Im Fall paralleler Geraden ist ϕ = 0, ψ = π.

1.1 Vektoren in der Ebene

33

Fig. 1.34: Winkel zwischen zwei Geraden Tabelle 1.1: Zwischenwinkel zweier Geraden Geraden, gegeben durch

  Zwischenwinkel ϕ ∈ 0, π2

Parameterformen r = r 1 + λs1 r = r 2 + λs2

ϕ = arccos

|s1 · s2 | |s1 | · |s2 |

(1.57)

Hessesche Normalformen n1 · r = ρ1 n2 · r = ρ2

ϕ = arccos |n1 · n2 |

(1.58)

|s · n R | |s|

(1.59)

Parameterform r = r 0 + λs

ϕ = arccos

und Hessesche Normalform n·r =ρ allg. Geradengleichungen a1 x + b1 y = c1 a2 x + b2 y = c2

ϕ = arccos 

|a1 a2 + b1 b2 | (a12 + b12 )(a22 + b22 )

(1.60)

Aus den vorangegangenen geometrischen Übungen leitet der Leser leicht die Formeln her. Lot von einem Punkt auf eine Gerade. Abstand eines Punktes von einer Geraden: Es sei eine Gerade durch die Parameterform r = r 0 + λs, λ ∈ R gegeben, sowie ein beliebiger Punkt der Ebene mit Ortsvektor r 1 . Das Lot des Punktes ist die kürzeste Strecke, die Punkt und Gerade verbindet. Das Lot steht rechtwinklig auf der Geraden. Der Schnittpunkt des Lotes mit der Geraden heißt der Fußpunkt des Lotes auf die Gerade. Er wird durch den Ortsvektor r ∗ markiert, s. Fig.1.35. Damit gelten die in Tab. 1.2 enthaltenen Formeln.

34

1 Vektorrechnung in zwei und drei Dimensionen

Fig. 1.35: Lot von einem Punkt auf eine Gerade Tabelle 1.2: Lot auf Gerade, Abstand Punkt-Gerade Geradenform

Fußpunkt r ∗ des Lotes von einem Punkt r 1 auf die Gerade

Abstand a des Punktes r 1 von der Geraden

Parameterform: r = r 0 + λs

r = r 0 + λ1 s mit (r − r ) · s λ1 = 1 2 0 s r ∗ = ρn + λn R mit λ = r 1 · n R

a = |r ∗ −r 1 | = |r 0 −r 1 +λ1 s| , λ1 wie links

Hessesche Normalform: n·r =ρ

a = |n · r 1 − ρ|

Die Punkte 0 und r 1 liegen auf • verschiedenen Seiten der Geraden, wenn n · r 1 > ρ • gleichen Seiten der Geraden, wenn n · r 1 < ρ

Nachweis der Formeln in der Tabelle 1.2: Die Gerade sei in Parameterform r = r 0 + λs gegeben. Da der Fußpunkt r ∗ des Lotes Geradenpunkt ist, gilt r ∗ = r 0 + λ1 s

(1.61)

mit noch unbekanntem λ1 . Man errechnet λ1 aus der Bedingung (r ∗ − r 1 ) · s = (r 0 + λ1 s − r 1 ) · s = 0;

(1.62)

dies besagt, daß der Vektor r ∗ − r 1 rechtwinklig zu s steht (s . Fig. 1.8). Aus (1.62) folgt λ1 = [(r 1 − r 0 ) · s]/s2 , wie in der Tabelle angegeben. Der Abstand a = |r ∗ − r 1 | ist klar. Ist die Gerade in Hessescher Normalform n · r = gegeben, so ist eine zugehörige Parameterform r = n + λn R . Setzen wir n statt r 0 und n R statt s in die Gleichung (1.61) ein, so folgt für den Fußpunkt des Lotes r ∗ = n + (r 1 · n R )n R , wie in der Tabelle notiert. Der Abstand a des Punktes r 1 von der Geraden in Hessescher Normalform ergibt sich besonders einfach. Man erkennt aus Fig. 1.36 n · r1 = τ

1.1 Vektoren in der Ebene

35

Fig. 1.36: Abstand Punkt - Gerade

(Der Betrag von τ ist die Länge der Projektion von r 1 auf eine zu n parallele Gerade, da n · r 1 = |n| · τ = 1 · τ = τ ). Der gesuchte Abstand ist damit gleich a = |τ − | = |n · r 1 − |. Die Behauptung über die Lage der Punkte 0 und r 1 zur Geraden (in Tab. 1.2) macht sich der Leser leicht selbst klar. Beispiel 1.14: Eine Gerade r = r 0 + λs und ein Punkt r 1 seien durch folgende Vektoren gegeben:       −4 2 2 . r0 = , s= , r1 = 10 −4 5 Damit ist der Fußpunkt des Lotes von r 1 auf die Gerade nach Tab. 1.2:     −4 − 2 2           · 10 + 4 5 2 58 2 2 2 6 r∗ = = + + = . 5 −4 −4 6 29 5 22 + 5 2 Der Abstand der Geraden vom Punkt r 1 ist   √  6 − (−4)   .   = 102 + 42 = 116 = 10,7703. a = |r − r 1 | =   6 − 10 ∗

Beispiel 1.15: Wie groß ist der Abstand des Punktes P = (−8,5) von der Geraden mit der Gleichung y = 3x − 1? Zur Beantwortung bilden wir die zugehörige √ Hessesche√Normalform n·r = , d.h. wir formen um in 3x − y = 1 und dividieren durch 32 + 12 = 10. Somit ergibt sich die Hessesche Normalform 3 1 1 √ x−√ y=√ . 10 10 10

36

1 Vektorrechnung in zwei und drei Dimensionen

    1 1 3 −8 , = √ und r 1 = Wir setzen n = √ . −1 5 10 10 Aus a = |n · r 1 − | gewinnt man den gesuchten Abstand:        .   1  3 −8 · − √1  = √ −3 · 8 − 1 · 5 − 1 = 9,48683. a =  √1 10 −1 10 5 10 √ Aus n · r 1 = −29/ 10 < 0 entnehmen wir, daß die Punkte P und O auf der gleichen Seite der Geraden liegen. Zweireihige Determinanten. Ein Zahlenschema der Form     a11 a12 3 2 , z.B. 4 7 a21 a22 nennen wir eine zweireihige quadratische Matrix. Unter der Determinante der Matrix verstehen wir den Zahlenwert a11 a22 − a21 a12 . Wir beschreiben diese »zweireihige Determinante« durch  a11  a21

 a12  = a11 a22 − a21 a12 . a22 

(1.63)

Zum Beispiel   3 2   4 7 = 3 · 7 − 4 · 2 = 13. Die Zahlen werden also »über Kreuz« multipliziert und die Produkte voneinander subtrahiert. Was ist die geometrische Bedeutung dieser Determinante? Flächeninhalte von Parallelogramm und Dreieck Satz 1.3:

    b a1 , b = 1 zwei Vektoren des R2 , so ist der Absolutbetrag der daraus a2 b2 gebildeten Determinante   a 1 b1 = a1 b2 − a2 b1 a 2 b2

Sind a =

gleich dem Flächeninhalt des von a, b aufgespannten Parallelogramms. (Darunter verstehen wir das Parallelogramm, bei dem zwei Seiten von den Ortsvektoren a, b gebildet werden, s. Fig. 1.37a).

1.1 Vektoren in der Ebene

37

Fig. 1.37: a) Flächeninhalt F eines Parallelogramms, b) Berechnung von F

Beweis: (s. Fig. 1.37b): Der Flächeninhalt F des Parallelogramms ist mit der Projektion b von b auf a R gleich      −a2 b  · 1  = | − a2 b1 + a1 b2 | . F = |a| · |b | = |a R | · |b | = |a R · b| =  a1 b2 

Das ist der Absolutbetrag der Determinante in Satz 1.3  a Die Determinante  1 a2

     a1 b b1  aus zwei Vektoren a = , b = l wird auch b2  a2 b2

det(a, b) symbolisiert. Z.B.: a =

     4 4 9 ,b = liefert det(a, b) =  2 3 2

 9 = 4 · 3 − 2 · 9 = −6 . 3

Folgerung 1.8: (Flächeninhalt eines Dreiecks) Sind die Ecken eines Dreiecks durch die Ortsvektoren r 0 , r 1 , r 2 ∈ R2 markiert, so ist der Flächeninhalt des Dreiecks gleich   1   det(r 1 − r 0 , r2 − r 0 ) . (1.64) 2  Der Schwerpunkt des Dreiecks ist gegeben durch s=

1 (r 0 + r 1 + r 2 ) . 3

(1.65)

Beweis: (der Schwerpunktgleichung) Ein Vektor in Richtung der Seitenhalbierenden durch r 0 ist t = 1 2 ((r 1 − r 0 ) + (r 2 − r 0 )). Der Schwerpunkt teilt die Seitenhalbierende im Verhältnis 2 : 3, also  ist s = r 0 + 23 t = 13 (r 0 + r 1 + r 2 ) der Ortsvektor des Schwerpunktes.

38

1 Vektorrechnung in zwei und drei Dimensionen

Beispiel 1.16: Das Dreieck mit den Ecken       1 3 4 r0 = , r1 = , r2 = 2 5 −6 hat den Flächeninhalt         1  1 2 3  4−1  det 3 − 1 , =  = 12,5 2 5−2 −6 − 2   2 3 −8   und den Schwerpunkt s = 13 (r 0 + r 1 + r 2 ) =

 8/3 . 1/3

Zum Schluß leiten wir mit der Vektorrechnung zwei geometrische Formeln her. Satz 1.4: (Cosinus-Satz) Im Dreieck, [A, B, C] den Seitenlängen a, b, c und dem Winkel γ bei C (s. Fig. 1.38) gilt c2 = a 2 + b2 − 2ab cos γ .

(1.66)

Beweis: Die Pfeile C A, C B und AB stellen Vektoren a, b und c = a − b dar. Ihre Längen sind a, b und c . Damit folgt c2 = c2 = (a − b)2 = a2 + b2 − 2a · b = a 2 + b2 − 2ab cos γ .

Fig. 1.38: Zum Cosinus-Satz

Fig. 1.39: Zur Parallelogrammgleichung

Satz 1.5: (Parallelogrammgleichung) Sind a, b die Längen zweier anliegender Seiten eines Parallelogramms, und sind d1 , d2 die Längen der Diagonalen, so gilt a 2 + b2 =

d12 + d22 . 2



1.1 Vektoren in der Ebene

39

Wir bemerken dazu: Die Diagonalen d 1 , d 2 (als Vektoren aufgefaßt) errechnen sich aus den Seiten a, b durch d1 = a + b ,

d2 = a − b

(1.67)

(s. Fig. 1.39). Umgekehrt erhält man durch Addition bzw Subtraktion dieser Gleichungen a=

1 1 (d 1 + d 2 ), b = (d 1 − d 2 ). 2 2

Aus (1.67) folgt nun erstaunlich leicht der Beweis: (des Satzes 1.5) d1 , d2 , a, b seien die Längen von d 1 , d 2 , a, b: d12 + d22 = d 21 + d 22 = (a + b)2 + (a − b)2 = 2(a2 + b2 ) .



Bemerkung: In einem Dreieck seien die Seitenlängen a, b, c bekannt. Lassen sich aus der Parallelogrammgleichung Formeln für die Längen sa , sb , sc der Seitenhalbierenden herleiten? Natürlich ja! Der Leser entwickle diese Formeln! Lineares Gleichungssystem mit zwei Unbekannten Ein Gleichungssystem der Form ξ a1 + ηb1 = c1 ξ a2 + ηb2 = c2 wird mit a =

      b c al , b = 1 , c = 1 zu a2 b2 c2

ξ a + ηb = c .

(1.68)

a, b, c sind gegeben, ξ, η gesucht. Dabei seien a und b nicht parallel, d.h. es sei a R · b  = 0. Aus geometrischen Gründen existieren reelle ξ, η, die (1.68) erfüllen. Man errechnet sie, indem man (1.68) mit a R bzw. b R durchmultipliziert. Wegen a R · a = b R · b = 0 erhält man ηa R · b = a R · c bzw. ξ b R · a = b R · c. Auflösen nach η und ξ , unter Benutzung von det(a, b) = a R · b = −b R · a, liefert die Lösung: ξ =

det(c, b) , det(a, b)

η=

det(a, c) , det(a, b)

Cramersche Regel20 .

20 Gabriel Cramer (1704 – 1752), schweizerischer Mathematiker

(1.69)

40

1 Vektorrechnung in zwei und drei Dimensionen

Beispiel 1.17:

   14 −2    −8 3  4ξ − 2η = 14  = 1, η = ⇒ξ =  4 −2 7ξ + 3η = −8   7 3 

  4 14    7 −8   = −5 . 4 −2   7 3 

Übung 1.21* Berechne die Winkel zwischen den Geraden (a) 3x + 5y = 4, 2x − 6y = 9.







 2 −8 6,73 3 (b) r = +λ ,r= +λ . 9 1 −5,94 4



 2 −8 (c) r = +λ , 3x + 5y = 4. 9 1 (d) y = 6x − 100, y = −5x + 1.9.

Übung 1.22: Berechne den Abstand des Punktes P = (6,10) von den im Folgenden angegebenen Geraden (a), (b), (c), sowie die Fußpunkte

 der Lote  vom Punkt P auf die Geraden. Skizziere Punkt, 2 1 Geraden und Lote! (a) r = +λ , (b) y = − 12 x + 1, (c) 6x − 8y = 20. −6 1

Übung 1.23* Berechne zwei Vektoren in Richtung der Winkelhalbierenden der beiden Geraden (a) und (b) aus Übung 1.22. Die Vektoren sollen die Länge 1 haben. Bilde das innere Produkt dieser Vektoren!

Übung 1.24* (a) Berechne Flächeninhalt und den Schwerpunkt des Dreiecks mit den Ecken A = (−1, −2), B = (5, 1), C = (7, −3). (b) Berechne die Längen der drei Höhen des Dreiecks. (Die Höhen sind Lote von Eckpunkten auf die gegenüberliegenden Seiten.)

Übung 1.25* Die Seitenlängen eines Parallelogramms sind a = 8 cm, b = 13 cm. Eine der Diagonalen hat die Länge d1 = 10 cm. Wie weit sind die Ecken des Parallelogramms vom Mittelpunkte des Parallelogramms entfernt?

Übung 1.26* Ein Dreieck hat die Seitenlängen a = 5 cm, b = 3 cm, c = 6 cm. Berechne die Winkel des Dreiecks und die Längen der Seitenhalbierenden!

1.2 Vektoren im dreidimensionalen Raum

Übung 1.27* Berechne den Flächeninhalt des Fünfecks [A, B, C, D, E] mit den Ecken A = (−2, −2), B = (2, −3), C = (5,1), D = (1,5), E = (−3,4).

Übung 1.28* Eine waagerechte dreieckige Platte wird in ihrem Schwerpunkt (= Schnittpunkt der Seitenhalbierenden) unterstützt. Die Platte rotiert um eine senkrechte Achse durch den Schwerpunkt. (Es kann sich um einen modernen Aussichtsturm handeln.) Die Seitenlängen des Dreiecks seien a = 10 m, b = 7 m, c = 9 m. Welchen Radius hat der kleinste Kreis, in dem das Dreieck um die Achse rotieren kann? (Hinweis: Der Schwerpunkt teilt jede Seitenhalbierende im Verhältnis 2 : 3).

Übung 1.29* (a) Löse folgendes Gleichungssystem mit der Cramerschen Regel: 5ξ + 3η = 11, −4ξ + η = 15 , (b) In Fig. 1.40 ist U1 = 20 V, U2 = 10 V, R1 = 150 Ω, R2 = 280 Ω. Es gilt U1 = U + R1 I, U2 = U + R2 I . Berechne Spannung U und Strom I !

Fig. 1.40: Schaltkreis

1.2

Vektoren im dreidimensionalen Raum

1.2.1

Der Raum R3

Der Raum R3 ist die Menge aller Zahlentripel ⎡ ⎤ vx v = ⎣v y ⎦ (vx , v y , vz ∈ R), vz

41

42

1 Vektorrechnung in zwei und drei Dimensionen

die wir räumliche oder dreidimensionale Vektoren nennen. vx , v y , vz heißen die Koordinaten von v. Zwei Vektoren ⎡ ⎤ ⎡ ⎤ ux vx u = ⎣u y ⎦ , v = ⎣v y ⎦ uz vz aus R3 sind genau dann gleich: u = v, wenn u x = vx , u y = v y und u z = vz gilt, kurz, wenn sie »zeilenweise« übereinstimmen. Bemerkung: Ganz analog zum R2 werden Addition, Subtraktion, Multiplikation mit einem Skalar und inneres Produkt im R3 eingeführt und behandelt. Der eilige Leser kann daher diesen und den nächsten Abschnitt ohne Schaden überschlagen. Wer trotzdem weiterliest, hat den Trost, daß er alles wiedererkennt und sein räumliches Vorstellungsvermögen trainiert wird. Pfeildarstellung: Räumliche Vektoren werden — wie im ebenen Fall — durch Pfeile 21 dargestellt. Dabei liegt ein räumliches rechtwinkliges Koordinatensystem zu Grunde, bestehend aus x, y und z-Achse, s. Fig. 1.41. Jedem Punkt P des Raumes ist umkehrbar eindeutig das Zahlentripel (x, y, z) seiner Koordinaten x, y, z zugeordnet. Man schreibt: P = (x, y, z).

Fig. 1.41: Raumpunkt P

Fig. 1.42: Pfeildarstellung eines Vektors v im Raum

Definition 1.4: −→ Ein Pfeil AB mit A = (ax , a y , az ), B = (bx , b y , bz ) stellt genau dann den Vektor ⎡ ⎤ vx v = ⎣v y ⎦ vz −→ 21 Ein Pfeil AB ist ein Paar (A, B) von Punkten A, B die durch eine Strecke verbunden sind. A heißt Fußpunkt und B Spitze des Pfeils.

1.2 Vektoren im dreidimensionalen Raum

43

dar, wenn vx = bx − ax

vy = by − ay

vz = bz − az

gilt (s. Fig. 1.42). Alle Pfeile, die aus einem Pfeil durch Parallelverschiebung hervorgehen, stellen denselben Vektor dar. Lassen sich zwei Pfeile nicht durch Parallelverschiebung zur Deckung bringen, so repräsentieren sie verschiedene Vektoren. −→ Ortsvektoren: Die Pfeile O P mit Fußpunkt im Koordinatenursprung 0 heißen Ortspfeile. Der − → durch 0P dargestellte Vektor r hat die gleichen Koordinaten wie P: ⎡ ⎤ x P = (x, y, z) , r = ⎣ y ⎦ . z Vektoren und die sie darstellenden Ortspfeile sind daher umkehrbar eindeutig einander zugeordnet, s. Fig. 1.43. Was liegt nun näher, als sie einfach zu identifizieren. Bei der Beschreibung geometrischer Figuren — wie Geraden, Ebenen, Kugelflächen usw. — ist dies zweckmäßig. Will man ausdrücken, daß man mit⎡dieser ⎤ Gleichsetzung arbeitet, so spricht x − → man vom »Ortsvektor«: Unter dem Ortsvektor r = ⎣ y ⎦ versteht man den Ortspfeil 0P mit z P = (x, y, z).

Fig. 1.43: Ortsvektor

Bemerkung: Arbeitet man nicht mit Ortsvektoren, sondern läßt, wie bisher, unendlich viele Pfeildarstellungen — parallel und gleichgerichtet — für einen Vektor zu, so spricht man zur Unterscheidung von Ortsvektoren auch von verschieblichen Vektoren. Die Rechenoperationen für verschiebliche Vektoren und Ortsvektoren sind aber gleich, da es sich ja in beiden Fällen um Zahlentripel handelt. Man vereinbart:

44

1 Vektorrechnung in zwei und drei Dimensionen

Definition 1.5: Sind



⎤ ⎡ ⎤ ux vx u = ⎣u y ⎦ , v = ⎣v y ⎦ uz vz

zwei beliebige Vektoren aus R3 , definiert man ⎡ ⎤ u x ± vx u ± v := ⎣u y ± v y ⎦ Addition und Subtraktion, u z ± vz ⎡ ⎤ λu x λu := ⎣λu y ⎦ Multiplikation mit einem »Skalar« λ ∈ R. λu z Zur Bezeichnung: uλ := λu,

u λ

:= λ1 u (λ  = 0).

⎤ ⎡ ⎤ 0 −u x −u := ⎣−u y ⎦ , 0 = ⎣0⎦ , 0 −u z ⎡

|v| :=

 vx2 + v 2y + vz2 Betrag (Länge) von v 22 .

|v| ist die Länge eines Pfeiles, der v darstellt. Man sieht das an Hand von Fig. 1.42 geometrisch leicht ein (sogenannter räumlicher Pythagoras). Die Pfeildarstellungen der Rechenoperationen sind die gleichen wie im R2 , s. Fig. 1.13, 1.14 in Abschn. 1.1.3. Beispiel 1.18: Mit ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ −1 4 7 3 u = ⎣1⎦ , v = ⎣−2⎦ ist u + v = ⎣−1⎦ , u − v = ⎣ 3 ⎦ , 7 9 16 −2 ⎡ ⎤ ⎡ ⎤ 9 −3  3u = ⎣ 3 ⎦ , −u = ⎣−1⎦ , |u| = 32 + 12 + 72 = 7,681146 . 21 −7 Die Rechenregeln aus Satz 1.1 (Abschn. 1.1.3) gelten auch hier (Assoziativgesetz für +, Kommutativgesetz für +, usw), wie auch die Gesetze über die Beträge in Folgerung 1.2 (Abschn. 1.1.3). Insbesondere gilt die Dreiecksungleichung |u + v| ≤ |u| + |v| ,

nebst |u − v| ≥ ||u| − |v|| .

22 Der Betrag |v| wird auch einfach durch v bezeichnet.

1.2 Vektoren im dreidimensionalen Raum

45

Anwendungen. Die physikalischen und technischen Anwendungen des Abschn. 1.1.4 lassen sich sinngemäß ins Dreidimensionale übertragen: Kräfte mit Resultierenden, Kraftfelder, Verschiebungen usw. Die Bewegung eines Massenpunktes der Masse m im Raum ist durch ⎡ ⎤ x(t) r(t) = ⎣ y(t)⎦ z(t) gegeben, wobei x(t), y(t), z(t) zweimal stetig differenzierbare reellwertige Funktionen auf einem Intervall sind. r(t) ist dabei der Ortsvektor des Massenpunktes zur Zeit t (d.h.: Der Massenpunkt befindet sich an der Spitze des Ortsvektors r(t)). Geschwindigkeit v(t) und Beschleunigung a(t) erhält man durch ein- bzw. zweimaliges Differenzieren der Koordinatenfunktionen: ⎡ ⎤ ⎡ ⎤ x(t) ˙ x(t) ¨ v(t) = r˙ (t) = ⎣ y˙ (t)⎦ , a(t) = r¨ (t) = ⎣ y¨ (t)⎦ . z˙ (t) z¨ (t) Die Kraft F(t), die zur Zeit t auf den Massenpunkt wirkt, ist dann nach Newton F(t) = ma(t). Übung 1.30* Zerlege die Kraft F in drei Kraftkomponenten, die in Richtung der Vektoren a, b, c liegen. Dabei sei ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ 16 5 −3 4 ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ F = ⎣ 3 ⎦ N , a = ⎣ 2 ⎦ , b = ⎣−7⎦ , c = ⎣ 8 ⎦ . −6 −1 1 −2 Anleitung: Setze F = λa + µb + νc und berechne daraus λ, µ und ν.

Fig. 1.44: Parallelogramm aus Seitenmittelpunkten

Übung 1.31* Zeige, daß die Mittelpunkte der Seiten eines Vierecks stets die Eckpunkte eines Parallelogramms sind. Dabei brauchen die Ecken des Vierecks noch nicht einmal in einer Ebene zu liegen. Anleitung: Fasse die Seiten des Vierecks als Pfeile von Vektoren a, b, c, d auf, wie es die Fig. 1.44 zeigt und lege eine Ecke des Vierecks in den Ursprung 0. Berechne dann die Ortsvektoren der Seitenmitten.

46

1 Vektorrechnung in zwei und drei Dimensionen

Übung 1.32*



⎤ 1 ⎢ ⎥ Es sei u = ⎣ 2 ⎦. Berechne v ∈ R3 aus den Gleichungen |u − v| = 15, |u + v| = |u| + v|. −1

1.2.2

Inneres Produkt (Skalarprodukt)

Wie im R2 definiert man den Zwischenwinkel ϕ = (u, v) zweier Vektoren u  = 0, v  = 0, durch den »kleineren« Winkel (d.h. 0 ≤ ϕ ≤ π) zwischen zwei Pfeilen, die u und v darstellen, die Pfeile haben dabei den gleichen Fußpunkt. v = 0 bildet jeden Winkel ϕ ∈ [0, π] mit u ∈ R3 . Definition 1.6: Das innere Produkt (oder Skalarprodukt) zweier Vektoren u, v ∈ R3 ist u · v := |u| · |v| cos ϕ

(ϕ = (u, v)) .

Wie in der Ebene überlegt man sich, daß  ≥ 0 , falls 0 ≤ ϕ ≤ π2 |u · v| = |u| · | p|, u · v , ≤ 0 , falls π2 ≤ ϕ ≤ π

(1.70)

(1.71)

wobei u  = 0 vorausgesetzt ist, und p der Projektionsvektor von v auf u ist (s. Fig. 1.28, Abschn. 1.1.5). Speziell gilt u ⊥v ⇔ u·v =0

23 .

(1.72)

Die Regeln für das innere Produkt. u·v =v·u (u + v) · w = u · w + v · w λ(u · v) = (λu) · v = u · (λv) u := u · u = |u| 2

2

Kommutativgesetz Distributivgesetz Assoziativgesetz Betragsquadrat

gelten für alle u, v, w ∈ R3 und λ ∈ R wie im R2 . (Sie werden genauso wie im Satz 1.2, Abschn. 1.1.5 bewiesen). Die Koordinateneinheitsvektoren im R3 sind ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ 1 0 0 i := ⎣0⎦ , j := ⎣1⎦ , k := ⎣0⎦ . 0 0 1 Um zur algebraischen Darstellung des inneren Produkts zu gelangen, stellen wir die zwei Vektoren 23 u ⊥ v bedeutet: v rechtwinklig zu u ((u, v) = π2 ). Der Nullvektor 0 steht rechtwinklig zu jedem Vektor.

1.2 Vektoren im dreidimensionalen Raum

Fig. 1.45: (u, v)

47

Fig. 1.46: Koordinateneinheitsvektoren

⎤ ⎡ ⎤ vx ux u = ⎣u y ⎦ , v = ⎣v y ⎦ uz vz ⎡

als Linearkombination von i, j , k dar: u = u x i + u y j + u z k, v = vx i + v y j + vz k. Multiplikation dieser Ausdrücke nebst »Ausmultiplizieren« (nach Distributivgesetz) und Verwendung von i 2 = j 2 = k2 = 1, i · j = j · k = k · i = 0 ergibt die Folgerung 1.9: (Algebraische Form des inneren Produkts) u · v = u x v x + u y v y + u z vz .

(1.73)

Aus cos ϕ = (u · v)/(|u| · |v|), wobei ϕ = (u, v), gewinnt man damit die Formel für den Zwischenwinkel der Vektoren u  = 0, v  = 0: ϕ = arccos 

u x v x + u y v y + u z vz (u 2x + u 2y + u 2z )(vx2 + v 2y + vz2 )

.

(1.74)

Bemerkung: Legt man ein anderes rechtwinkliges Koordinatensystem im Raum zugrunde, so erhält man in den zugehörigen Koordinaten die gleiche algebraische Form, da alle Rechnungen dabei genauso verlaufen wie oben. Richtungscosinus: Einen Vektor e der Länge |e| = 1 nennt man einen Einheitsvektor oder eine Richtung. Setzt man e = e x i + e y j + ez k , wobei ex , e y , ez die Komponenten von e sind, so folgt durch Multiplikation mit i, j oder k: e · i = e x , e · j = e y , e · k = ez ,

48

1 Vektorrechnung in zwei und drei Dimensionen

Fig. 1.47: Richtungswinkel α, β, γ

also nach Definition des inneren Produktes ex = cos α, e y = cos β, ez = cos γ ,

(1.75)

wobei α, β, γ die Winkel sind, die e mit den Koordinatenrichtungen bildet, s. Fig. 1.47. Wegen |e| = 1 folgt cos2 α + cos2 β + cos2 γ = 1 .

(1.76)

Ist a  = 0 ein beliebiger Vektor aus R3 , so kann man aus ihm den Einheitsvektor e = a/|a| bilden. Die Komponenten ex , e y , ez von e heißen wegen (1.75) — die Richtungscosini von a. Projektion eines Vektors in bestimmter Richtung. Die Projektion von v in die Richtung e (|e| = 1) ist der Vektor v = (v · e)e.

(1.77)

Es handelt sich um die Projektion von v auf e, wie in Abschn. 1.1.5 beschrieben. Man erkennt übrigens, daß v vom Vorzeichen von e nicht abhängt: Für −e statt e erhält man die gleiche Projektion v. Übung 1.33* Welche Winkel bildet der Vektor r = 5.32i + 7,89 j − 2,56k mit den Koordinatenachsen (x-, y- und z-Achse) und mit den Koordinatenebenen (x-y-Ebene, y-z-Ebene)?

Übung 1.34* Berechne die Projektion F der Kraft F = [2, 9, −1]T in einer Richtung e die der x-Achse den Winkel α = 60◦ bildet, mit der y-Achse den Winkel β = 75◦ und mit der z-Achse einen Winkel γ zwischen 0◦ und 70◦ (der zu berechnen ist).

1.2 Vektoren im dreidimensionalen Raum

1.2.3

49

Dreireihige Determinanten

Ein Zahlenschema der Form ⎡ ⎤ a11 a12 a13 A = ⎣a21 a22 a23 ⎦ a31 a32 a33 heißt eine (3, 3)-Matrix. Die (dreireihige) Determinante dieser Matrix ist definiert durch  a11  det A := a21 a31

a12 a22 a32

 ⎧ a13  ⎪ ⎨ a11 a22 a33 − a31 a22 a13 a23  = +a21 a32 a13 − a11 a32 a23 ⎪ a33  ⎩ +a31 a12 a23 − a21 a12 a33 .

(1.78)

Als Merkhilfe ist die Sarrussche Regel 24 praktisch. Man schreibt dazu die ersten beiden Matrixzeilen unter die Determinante a11 a21 a31 a11 a21

a12 a22 a32 a12 a22

a13 a23 a33 a13 a23

3 6 4 3 6

Zahlenbeispiel:

1 −1 7 1 −1

5 2 −9 . 5 2

(1.79)

Dann zieht man die sechs skizzierten schrägen Linien. Die durchgezogenen Linien kennzeichnen Dreierprodukte, die addiert werden, und die gestrichelten Dreierprodukte, die subtrahiert werden. Man erhält auf diese Weise gerade (1.78). Das Zahlenbeispiel (1.79) ergibt damit: ⎫  ⎧  3(−1)(−9) −3 · 7 · 2⎪ 3  ⎪ 1 5 ⎨ ⎬    = +6 · 7 · 5 6 −1 2 −6 · 1(−9) = 277 .   ⎪ ⎪ ⎭ 4 7 −9 ⎩ +4 · 1 · 2 −4(−1) · 5 Da dreireihige Determinanten im Zusammenhang mit dem Spatprodukt in Abschn. 1.1.6 näher betrachtet werden, brechen wir ihre Erörterung hier ab. Übung 1.35* Berechne  3   −1  5

1 6 −2

 9  1 ,  0

 3   6  9

5 10 8

  1 4   2 , 9   4 2

8 5 0

 3  0 .  0

24 Die Sarrussche Regel gilt nur für dreireihige Determinanten.

50

1 Vektorrechnung in zwei und drei Dimensionen

Übung 1.36: Zeige  a  11 a12  a22  0   0 0

 a13   a23  = a11 a22 a33 ,  a33 

   a a a  a  11 12 13   22   a21 a22 a23  = a11  a32   a31 a32 a33 

  a a23   21  − a12  a31 a33 

  a a23   21  + a13  a31 a33 

 a22   a32 

Man nennt dies Entwicklung der Determinante nach der ersten Zeile.

1.2.4

Äußeres Produkt (Vektorprodukt)

Definition 1.7: Das äußere Produkt (oder Vektorprodukt) zweier Vektoren a, b ist ein Vektor p, symbolisiert durch p = a × b, (I) dessen Länge | p| = |a| · |b| sin ϕ ist, (ϕ = (a, b)) (II) der rechtwinklig auf a und b steht, (III) der mit a, b im Fall | p|  = 0 ein Rechtssystem (a, b, p) bildet. 25

Fig. 1.48: Äußeres Produkt

Fig. 1.49: Rechte-Hand-Regel

Dabei bilden die drei Vektoren (a, b, p) ein Rechtssystem, wenn sie der Rechte-Hand-Regel folgen: Man spreize die rechte Hand so, daß der Daumen in Richtung von a weist, der Zeigefinger in Richtung von b, und der Mittelfinger rechtwinklig zu Daumen und Zeigefinger steht (s. Fig. 1.49). Dann weist der Mittelfinger in Richtung von p. Vorausgesetzt wird dabei, daß auch die Koordinateneinheitsvektoren ein Rechtssystem (i, j , k) bilden, wie es allgemein üblich ist. 25 Als Motivation kann das Moment einer Kraft angesehen werden (Beisp. 1.16, Abschn. 1.2.4). Aber auch bei elektromagnetischen, strömungsmechanischen oder geometrischen Zusammenhängen erweist sich die hohe Nützlichkeit des äußeren Produktes, s. nächster Abschnitt.

1.2 Vektoren im dreidimensionalen Raum

51

Bemerkung: Beim Nachweis von Rechtssystemen kann man auch die Korkenzieherregel benutzen, die bequem zu handhaben ist: Man denkt sich einen Korkenzieher, dessen Achse rechtwinklig zu a und b steht, s. Fig. 1.50. Der Griff habe die Richtung von a . Dreht man nun den Griff um den Winkel ϕ = (a, b) in die Richtung von b, so bewegt sich die Korkenzieherachse in die Richtung von p.

Fig. 1.50: Korkenzieherregel

Fig. 1.51: F = |a × b|

Die Länge | p| des Produktes p = a × b ist der Flächeninhalt F des »von a und b aufgespannten Parallelogramms«, wie in Fig. 1.51 skizziert: F = |a|h = |a||b| sin ϕ. Im Fall b = λa oder a = 0 verkümmert das Parallelogramm zu einer Linie oder gar zu einem Punkt, denen man den Flächeninhalt 0 zuschreibt. Satz 1.6: Für alle a, b, c ∈ R3 und λ ∈ R gilt: (a) (b) (c)

a × b = −b × a a × (b + c) = a × b + a × c λ(a × b) = (λa) × b = a × (λb)

Antikommutativgesetz Distributivgesetz Assoziativgesetz

Wegen dieser Regel läßt man die Klammern auch weg und schreibt einfach λa × b. (d) (e)

a×a=0 |a × b|2 = a2 b2 − (a · b)2 .

Beweis: (a), (c), (d) folgen unmittelbar aus der Definition des äußeren Produkt. Zu (e): |a × b|2 = a2 b2 sin 2 ϕ = a2 b2 (1 − cos2 ϕ) = a2 b2 − a2 b2 cos2 ϕ = a2 b2 − (a · b)2 . Zum Nachweis des Distributivgesetzes (b) beginnen wir mit einem einfachen Fall:

52

1 Vektorrechnung in zwei und drei Dimensionen

1. Fall: c = λa. Mit Hilfe der Flächeninhaltsinterpretation von |a × b| erkennt man a × (b + λa) = a × b = a × b + a × (λa) .    0

Fig. 1.52: Zum Distributivgesetz für das äußere Produkt

2. Fall: a ⊥ b, a ⊥ c und |a| = 1. Alle Vektoren werden als Ortsvektoren aufgefaßt. In Fig. 1.52 ist eine Ebene eingezeichnet in der b und c liegen. a steht auf der Ebene, in Richtung auf den Beschauer zu (durch  angedeutet; man stelle hier einen Bleistift senkrecht aufs Papier). Das von b, c aufgespannte Parallelogramm wird durch Multiplikation mit a um 90◦ gedreht. (Dies folgt aus der Definition des äußeren Produktes.) Aus dem gedrehten Parallelogramm erhält man sofort: a × (b + c) = a × b + a × c. 3. Fall: a  = 0, b, c beliebig. (Der Fall a = 0 ist unmittelbar klar.) Wir setzen a =

a , b = b − µa , c = c − νa , λ

wobei λ, µ, ν ∈ R so gewählt werden, daß |a | = 1, a · b = 0, a · c = 0 erfüllt ist. Damit folgt: a × (b + c) = λa × (b + c + µa + νa) , Fall 1⇒ = λa × (b + c ) , Fall 2⇒ = λ(a × b + a × c ) , = λa × b + λa × c , = a × b + a × c.

Fall 1⇒ 

1.2 Vektoren im dreidimensionalen Raum

53

Folgerung 1.10: (Algebraische Form des äußeren Produkts) Es gilt für beliebige Vektoren ⎤ ⎡ a y b y    ⎢  a z b z ⎥ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎢ a y bz − az b y ⎥ ax bx ⎢ ⎥ ⎢ a b ⎥ ⎢ ⎥ a = ⎣a y ⎦ , b = ⎣b y ⎦ : a × b = ⎢  z z ⎥ = ⎣ az bx − ax bz ⎦ . ⎢ ax bx ⎥ az bz ⎢ ⎥ ax b y − a y bx ⎣ ax bx ⎦   a y b y  Beweis: Für die Koordinateneinheitsvektoren i, j , k gilt auf Grund der Definition des äußeren Produkts: i × j = k, k × i = j , j × k = i. Unter Verwendung der Regeln aus Satz 1.6 folgt damit durch »Ausmultiplizieren«: a × b = (ax i + a y j + az k) × (bx i + b y j + bz k) = (a y bz − az b y )i + (az bx − ax bz ) j + (ax b y − a y bx )k .



Bemerkung: Man erkennt, daß man in jedem rechtwinkligen Koordinatensystem die gleiche algebraische Form herausbekommt, sofern die Koordinateneinheitsvektoren e1 , e2 , e3 nur die Gleichungen e1 × e2 = e3 , e2 × e3 = e1 , e3 × e1 = e2 erfüllen. Denn die Rechnung im obigen 3 3 $ $ ai ei , b = bi ei ganz analog. Beweis verläuft für a = i=1

i=1

Merkregel zur Berechnung. Die algebraische Darstellung des äußeren Produkts läßt sich gut merken, wenn man das Produkt in folgender Weise als »symbolische Determinante« schreibt:    ax bx i      a × b =  ay by j  .    az bz k 

ax ay Zur Sarrusschen Regel: az ax ay

bx by bz bz by

i j k i j

.

(1.80)

Zur Auswertung wird die Sarrussche Regel verwendet: Man schreibt die ersten beiden Zeilen der Determinante noch einmal darunter. Anschließend zieht man sechs Schräglinien, wie in (1.80) dargestellt. Die durchgezogenen Linien kennzeichnen dabei Produkte, die addiert werden, die gestrichelten Produkte, die subtrahiert werden, also: a × bi =

a x b y k + a y bz i + az b x j −az b y i − ax bz j − a y bx k .

54

1 Vektorrechnung in zwei und drei Dimensionen

Umordnen und Ausklammern der i, j , k ergibt die algebraische Form des äußeren Produktes. Beispiel 1.19: ⎡ ⎤ ⎡ ⎤ 5 6 ⎣7⎦ × ⎣ 1 ⎦ = 9 −3

5 7 9 5 7

i j k i j

6 1 −3 6 1

 =

5k −9i

−21i + 54 j +15 j − 42k





⎤ −30 = ⎣ 69 ⎦ . −37

Schnelle Berechnungsmethode: Eine besonders schnelle Berechnungsvorschrift für das äußere Produkt beruht auf der Darstellung durch zweireihige Determinanten (s. Folgerung 1.7). Wir erläutern dies am folgenden Zahlenbeispiel: Zunächst schreibt man die zu multiplizierenden Vektoren mit ihren Koordinaten hin. Dann denkt man sich die erste Zeile herausgestrichen. Die Determinante aus den verbleibenden vier Zahlen ist die erste Koordinate des Produktes. Dann streicht man in Gedanken die zweite Zeile heraus. Die verbleibenden Zahlen formen eine Determinante, deren Negatives die zweite Koordinate des Produktes ist. Streichung der dritten Zeile liefert schließlich eine Determinante, die die dritte Ergebniskoordinate ist. Beispiel 1.20: ⎡ ⎤ ⎡ ⎤ 2 4 ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢5⎥ × ⎢1⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎣ ⎦ ⎣ ⎦ 7 6

→ → →

 5  7  2 −  7  2  5

 1 6  4 6  4 1





23



⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎥. →= ⎢ 16 ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎣ ⎦ → −18

Die Pfeile und die Determinanten in der Mitte schreibt man dabei nicht wirklich hin, da man die Determinanten am linken Produkt »mit bloßem Auge« sieht. Der Leser übe die Methode an Beispiel 1.19 und einigen selbst gewählten Vektoren (s. auch Übung 1.37). Bemerkung. Es sei besonders darauf hingewiesen, daß das Assoziativgesetz a × (b × c) = (a × b) × c nicht allgemein gilt! Für dreifache Produkte a × (b × c) ist statt dessen folgendes erfüllt. Satz 1.7: (Graßmannscher Entwicklungssatz im R3 ) Für alle a, b, c ∈ R3 gilt a × (b × c) = (a · c)b − (a · b)c .

(1.81)

1.2 Vektoren im dreidimensionalen Raum

55

Beweis: Man wählt das Koordinatensystem so, daß a, b, c folgende spezielle Gestalten haben ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ax bx cx a = ⎣ 0 ⎦ , b = ⎣b y ⎦ , c = ⎣c y ⎦ . 0 0 cz Das ist immer möglich. Man rechnet nun leicht die algebraischen Darstellungen der rechten und linken Seite von (1.81) aus und stellt fest, daß sie gleich sind. (Der Leser führe dies durch)  Übung 1.37: Berechne die Produkte a×b, b×c, c×a, a×(b×c), (b×a)×c, (a×b)×(c−3a), (a+b)×a der folgenden Vektoren: ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ 5 2 3 ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ a = ⎣ 1 ⎦ , b = ⎣−7⎦ , c = ⎣0⎦ . −1 1 8

Übung 1.38* A = (7, 1,0), B = (2, 8, −1), C = (0, 2, 5), D = (−5, 0, −1) sind vier Punkte im Raum. Berechne den (kleineren) Winkel zwischen der Ebene durch A, B, C und der Ebene B, C, D! (Hinweis: Man berechne zunächst für jede Ebene einen Vektor, der auf ihr rechtwinklig steht!)

Übung 1.39: Zeige: a × b = 0 gilt genau dann, wenn a = λb oder b = µa (λ, µ ∈ R) ist.

Übung 1.40* Wie schon erwähnt, ist a × (b × c) = (a × b) × c nicht für alle a, b, c ∈ R3 richtig. Die Gleichung kann also als Rechenregel nicht verwendet werden! Trotzdem trifft sie für spezielle a, b, c zu. Zeige: a × (b × c) = (a × b) × c gilt genau dann, wenn (b · c)a = (a · b)c ist.

1.2.5

Physikalische, technische und geometrische Anwendungen

Viele Anwendungen des äußeren Produktes findet der Leser in Physikbüchern beschrieben, z.B. in [72], Kap. II, §2 (Mechanik); Kap. VII §3 (Elektrodynamik). [97], Kap. 2 (Mechanik), [6], Kap. C, G (Formelsammlung zur Elektrodynamik). Aus diesem Grunde begnügen wir uns mit Stichproben typischer Anwendungen.

56

1 Vektorrechnung in zwei und drei Dimensionen

Mechanik Beispiel 1.21: (Moment einer Kraft) An einem starren oder elastischen Körper26 im Raum greife im Punkt P eine Kraft F an. A sei ein weiterer Punkt inner- oder außerhalb des Körpers. Wir nennen ihn −→ Bezugspunkt. Der Vektor r stelle den Pfeil A P dar. Dann ist M=r×F das Moment der Kraft F in P bezüglich des Punktes A. Nehmen wir an, daß der Körper drehbar gelagert ist, mit einer Drehachse durch A, die rechtwinklig zu F steht, so heißt M das Drehmoment, das von F erzeugt wird. Steht F nicht rechtwinklig zur Achse, so ist das bewirkte Drehmoment die Projektion von M in Richtung Achse. Zahlenbeispiel. A = (1,1,0) m, P = (4, −1,3) m ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ 6 2 3 1 F = ⎣−5⎦ N , Achsenrichtung: e = ⎣6⎦ , ⇒ A P : r = ⎣−2⎦ m , 7 3 1 3 ⎡

⎤ 13 M = r × F = ⎣ 15 ⎦ Nm . −3 ⎡ ⎤ ⎡ ⎤ 2 4,367 107 1 ⎣ ⎦ . 6 Nm = ⎣13,102⎦ Nm . Drehmoment: D = (M · e)e = · 7 7 3 6,551 . Der Betrag des Drehmoments ist | D| = 15,286 Nm.



Greifen an einem räumlichen Körper mehrere Kräfte F 1 , . . . , F n in den entsprechenden Punk−→ −→ ten P1 , . . . , Pn an, und repräsentieren die Pfeile A P 1 , . . . , A P n (A Bezugspunkt) die Vektoren r 1 , . . . , r n , so ist das Moment der Kräfte F 1 , . . . , Fn bzgl. A gleich der Summe M=

n 

r k × Fk .

k=1

Beispiel 1.22: (Drehimpuls bei einer Zentralkraft27 ) Auf einen Massenpunkt der Masse m wirke eine Kraft F, die vom Massenpunkt stets in Richtung des Nullpunktes weist oder in die entgegengesetzte Richtung, d.h F = λr, wenn r der Ortsvektor des Massenpunktes ist. F heißt eine Zentralkraft bzgl. 0 (Beispiel: Gravitationskraft der Sonne auf einen Planeten, elastische Drehbewegung). Bewegt sich der Massenpunkt, so wird sein Ort durch den Vektor r(t) beschrieben (t Zeit), 26 Unter einem Körper verstehen wir einen Gegenstand, der im dreidimensionalen Raum eine beschränke Punktmenge mit Volumen > 0 ausfüllt. (Zum Volumenbegriff s. Burg/Haf/Wille (Analysis) [27], Abschn.7.1.1, Def. 7.7.) 27 Hier wird eine elementare Differentialrechnung verwendet.

1.2 Vektoren im dreidimensionalen Raum

57

wobei r(t) koordinatenweise 2 mal stetig differenzierbar sei. Aus dem Newtonschen Bewegungsgesetz F(t) = m r¨ (t) folgt durch äußere Multiplikation mit r(t) : F(t) × r(t) = 0 (da F und r parallel), also m r(t) × r¨ (t) = 0. Dies ist die Ableitung von m r(t) × r˙ (t) = c (= konstant),

(1.82)

wie man durch Differenzieren nach Produktregel feststellt. (Der Leser rechne nach, daß die Produktregel des Differenzierens beim äußeren Produkt gilt) Die linke Seite von (1.82) heißt der Drehimpuls p des Massenpunktes bzgl. des Nullpunktes. Aus (1.82) zieht man die Folgerungen: (a) Der Drehimpuls des Massenpunktes bzgl.0 ist konstant (b) Die Bahn des Massenpunktes liegt in einer Ebene, denn r(t) steht rechtwinklig auf dem konstanten Vektor c.     (c) Die Flächengeschwindigkeit  12 r(t) × r˙ (t) ist konstant (2. Keplersches28 Gesetz). Denn ist ∆r die in der Zeit ∆t erfolgte Verschiebung des Massenpunktes, so hat der Ortsvektor des Punktes ein Dreieck mit (ungefährem) Flächeninhalt | 12 (r × ∆r)| überstrichen. Division durch ∆t und Grenzübergang ∆t → 0 liefert die Flächengeschwindigkeit, die nach (1.82) konstant ist. Beispiel 1.23: (Gesamt-Drehimpuls) Ein System von Punkten mit den Massen m 1 , . . . , m n mit den Ortsvektoren r k (t) zur Zeit t hat den Gesamt-Drehimpuls  p := m k (r k × r˙ k ) (bzgl.0). k

(Die Variable t wurde der Übersichtlichkeit weggelassen.) Die Bewegung der Massenpunkte wird durch äußere Kräfte F k auf den jeweils k-ten Massenpunkt und innere Kräfte der Massenpunkte untereinander bewirkt. Letztere heben sich weg, da sie in Richtung der Verbindungslinien der Punkte wirken (aktio gleich reaktio). Differenzieren und Verwenden von F k = m k r¨ k liefert d p=M dt

mit

M=



r k × Fk .

k

28 Johann Kepler (1571 – 1630), deutscher Astronom, Physiker und Mathematiker

(1.83)

58

1 Vektorrechnung in zwei und drei Dimensionen

Dies ist der bekannte Drehimpulssatz: Für ein System von Massenpunkten ist die zeitliche Änderung des Gesamt- Drehimpulses bzgl. eines Punktes gleich dem Gesamt-Moment aller äußeren Kräfte, wieder bezogen auf den genannten Punkt.

Fig. 1.53: Winkelgeschwindigkeitsvektor ω

Beispiel 1.24: (Drehbewegung, Drehgeschwindigkeitsvektor) Die Rotation eines starren Körpers können wir durch einen Vektor ω = ωe beschreiben, dessen Betrag ω = |ω| die Drehgeschwindigkeit (Winkelgeschwindigkeit) ist, und dessen Richtung e die Richtung der Drehachse darstellt (Im Sinne einer Rechtsschraube). Beschreibt der Ortsvektor r(t) die momentane Lage eines beliebigen Punktes P des rotierenden Körpers, so gilt für die Geschwindigkeit v von P: r˙ (t) = v(r, t) = ω × r(t) .

(1.84)

Diese Beziehung ist zu verstehen, wenn man sich vorstellt, daß sich der Punkt P momentan auf einer Kreisbahn bewegt. Da der Radius d dieses Kreises gleich dem Abstand des Punktes P von der Drehachse ist: d = |r| sin α, gilt für den Betrag der Bahngeschwindigkeit |v| = ωd = |ω||r| sin α

(1.85)

(vgl. Fig. 1.53). Aus der Geometrie ergibt sich, daß der Geschwindigkeitsvektor v sowohl mit der Drehachse als auch mit dem Ortsvektor r einen rechten Winkel bildet. Ferner bilden die Vektoren ω, r und v ein Rechtssystem. Damit ist Beziehung (1.84) begründet.

1.2 Vektoren im dreidimensionalen Raum

59

Bemerkung: Aus der »Lagrangeschen Darstellung« der Starrkörperbewegung (s. einschlägige Fachliteratur) ergibt sich allgemein für das Geschwindigkeitsfeld einer Starrkörperbewegung: v(r, t) = r˙ 0 (t) + ω(t) × (r(t) − r 0 (t)) (Eulersche Darstellung des Geschwindigkeitsfeldes). Darin bedeuten: r 0 (t) :

Ortsvektor eines beliebigen (fest gewählten) Körperpunktes (z.B. den des Schwerpunktes)

ω(t) :

Drehgeschwindigkeitsvektor (er ist unabhängig von der Wahl von r 0 )

r˙ 0 (t) :

Translationsgeschwindigkeit

ω × (r − r 0 ) : Drehgeschwindigkeit um eine Achse durch r 0 . Geometrie Beispiel 1.25: (Flächennormale) Ist ein ebenes Flächenstück im Raum gegeben, so versteht man unter einer zugehörigen Flächennormalen n einen Vektor, der rechtwinklig auf dem Flächenstück steht und dessen Länge gleich dem zugehörigen Flächeninhalt ist. Beispielsweise hat ein Parallelogramm, das von den Vektoren a, b ∈ R3 aufgespannt wird, die Normalenvektoren n = a × b und −(a × b). Entsprechend hat ein von a, b aufgespanntes Dreieck (s. Fig. 1.54) die Flächennormale n = 21 (a × b), wie auch den dazu negativen Vektor.

Fig. 1.54: Flächennormale

Bei Körpern, die von endlich vielen ebenen Flächenstücken berandet werden, gilt, daß die Summe der nach außen weisenden Flächennormalen Null ist. Man beweist diese Aussage zuerst für Tetraeder (s. Übung 1.45). Daraus folgt die Aussage für die beschriebenen Körper durch Zusammenfügen der Körper aus Tetraedern, da die innen liegenden Flächennormalen der Tetraeder sich in der Summe aller Flächennormalen gegenseitig wegheben. Hierbei benutzt man die Tatsache, daß die genannten Körper sich in endlich viele Tetraeder zerlegen lassen, wobei je zwei solcher Tetraeder entweder eine Seite gemeinsam haben, oder eine Kante, oder eine Ecke, oder nichts. (Auf einen Beweis dieses anschaulichen Sachverhalts wird hier verzichtet.)

60

1 Vektorrechnung in zwei und drei Dimensionen

Beispiel 1.26: (Flächeninhalt eines Dreiecks) Die Eckpunkte eines Dreiecks im Raum seien A = (−1,6, 2), B = (−6, −2, 4), C = (1, 3, 9). Wie groß ist der Flächeninhalt des Dreiecks? Antwort: Die Kanten des Dreiecks, als Pfeile aufgefaßt, repräsentieren folgende Vektoren ⎡ ⎤ ⎡ ⎤ −7 −2 −→ − → C B : a = ⎣−5⎦ , C A : b = ⎣ 3 ⎦ −5 −7 und c = a − b. Man sagt, die Vektoren a, b spannen das Dreieck auf. Da das Dreieck ein halbes Parallelogramm ist, folgt für den Flächeninhalt: ⎡ ⎤  50    1 1 1 . 502 + 392 + 312 = 35,2916 F = |a × b| = ⎣−39⎦ = 2 2  −31  2

Fig. 1.55: Flächeninhalt eines Dreiecks

Elektrodynamik Bei der Behandlung elektromagnetischer Felder treten äußere Produkte vielfach auf. Wir erwähnen Kraftwirkung auf eine bewegte Ladung Poyntingscher Vektor

F = e(E + v × B), S= E×H

mit folgenden Größen E = elektrische Feldstärke, H = magnetische Feldstärke, B = magnetische Flußdichte,

e = elektrische Ladung, v = Geschwindigkeit der Ladung.

Für die Umwandlung von elektrischer Energie in mechanische ist folgendes Beispiel grundlegend:

1.2 Vektoren im dreidimensionalen Raum

61

Beispiel 1.27: (Kraft auf elektrischen Leiter) In einem geraden elektrischen Leiter fließe der Strom I . Der Leiter befinde sich in einem Magnetfeld mit konstanter magnetischer Feldstärke B. Ist e ein Einheitsvektor in Richtung des Stromes, so wirkt auf ein Leiterstück der Länge s die Kraft F = I se × B .

(1.86)

Übung 1.41: An einem starren Körper greifen zwei Kräfte an: ⎡ ⎤ ⎡ ⎤ 5 3 ⎢ ⎥ ⎢ ⎥ F 1 = ⎣−1⎦ N F 2 = ⎣2⎦ N, −2 1 und zwar F 1 im Punkt A = (1, 2, 1) m 29 , und F 2 im Punkt B = (−2, 1, −1)m. Wie groß ist das Moment dieser Kräfte bzgl. 0?

Übung 1.42* Ein starrer Körper sei drehbar um eine Achse durch die beiden Punkte⎡A =⎤ (1, 3, 0)m B = 3 ⎢ ⎥ (7, 2, 5)m gelagert. Am Punkte P = (5, 6,5)m greife eine Kraft F = ⎣−5⎦ N an. Wie groß 3 ist das Moment M der Kraft in P bzgl. A? Wie groß ist das erzeugte Drehmoment bzgl. der Achse?

Übung 1.43*



⎤ 3 cos t ⎢ ⎥ Durch r(t) = ⎣ 5 sin t ⎦ m ist der Ortsvektor einer ebenen Bewegung gegeben. Berechne die 1 Flächengeschwindigkeit bzgl. des Zentrums 0.

Übung 1.44: Berechne die Geschwindigkeit v eines Punktes P der sich auf einer Kreisbahn um eine Achse durch 0 bewegt. Dabei seien der Drehvektor ω und der momentane Ort des Punktes durch ⎡ ⎤ ⎡ ⎤ −1 3 ⎢ ⎥ ⎢ ⎥ ω = ⎣ 1 ⎦ s−1 , r = ⎣ 4 ⎦ m 0 −2 gegeben. 29 m = Meter bezieht sich auf alle Koordinaten.

62

1 Vektorrechnung in zwei und drei Dimensionen

Übung 1.45* Zeige, daß die nach außen weisenden 4 Flächennormalen auf den Seiten eines Tetraeders die Summe 0 ergeben. Hinweis: Nimm an, daß eine Ecke des Tetraeders im Punkte 0 liegt, und daß die übrigen drei Ecken A, B, C des Tetraeders die Ortsvektoren a, b, c haben. Aus diesen lassen sich die Flächennormalen gewinnen.

Fig. 1.56: Leiterschleife

Übung 1.46* Welchen Flächeninhalt hat das Dreieck mit den Ecken A = (−2,3,9), B = (5,1,2), C = (−1,0,6)?

Übung 1.47*30 Eine Drahtschleife (Leiterschleife) liegt so im Raum, wie es die Fig. 1.56 zeigt. Sie ist um die zAchse drehbar gelagert. Sie befindet sich in einem Magnetfeld mit der magnetischen Flußdichte ⎡ ⎤ 4 Vs ⎢ ⎥ B = ⎣4⎦ 10−2 2 . m 3 Durch die Leiterschleife fließt der Strom I = 15 A in Richtung der skizzierten Pfeile. (a) Berechne die vier Kräfte F AB , F BC , F C D , F D A , die auf die vier Leiterstücke AB, BC, C D, D A wirken! (b) Wie groß ist das zugehörige Drehmoment M bzgl. der z-Achse auf die gesamte Leiterschleife? 30 nach [156], Bd. 1, S. 24

1.2 Vektoren im dreidimensionalen Raum

1.2.6

63

Spatprodukt, mehrfache Produkte

Definition 1.8: Für je drei Vektoren a, b, c aus R3 ist das Spatprodukt definiert durch [a, b, c] := (a × b) · c

31 .

(1.87)

Es handelt sich also um ein Dreierprodukt aus Vektoren, dessen Wert eine reelle Zahl ist. Mit den Koordinatendarstellungen ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ a1 b1 c1 a = ⎣a2 ⎦ , b = ⎣b2 ⎦ , c = ⎣c2 ⎦ a3 b3 c3 ist das Spatprodukt gleich dem Wert der Determinante aus diesen Vektoren, wie man leicht nachrechnet. ⎫   ⎧ a1 b2 c3 − a1 b3 c2 ⎪ a1 b1 c1  ⎪ ⎨ ⎬   (a × b) · c = a2 b2 c2  = +a2 b3 c1 − a2 b1 c3 . (1.88) ⎪ ⎪ a3 b3 c3  ⎩ ⎭ +a3 b1 c2 − a3 b2 c1 Insbesondere kann man die Sarrussche Regel zur praktischen Berechnung heranziehen.

Fig. 1.57: Spat = Parallelflach

Geometrisch ist der Absolutbetrag |[a, b, c]| des Spatproduktes gleich dem Volumen des von a, b, c aufgespannten Parallelflaches (Spats), wie die Fig. 1.57 zeigt. Denn a × b steht rechtwinklig auf dem durch a, b aufgespannten Parallelogramm. Mit dem Flächeninhalt des Parallelogramms und der »Höhe« h (s. Fig. 1.57) ist also das Volumen V des Parallelflaches V = F · h = |a × b| · h = |(a × b) · c|. Satz 1.8: (Rechenregeln für das Spatprodukt) (a) Bei zyklischer Umordnung der Faktoren a, b, c bleibt das Spatprodukt erhalten [a, b, c] = [b, c, a] = [c, a, b] . 31 Auch die einfache Schreibweise abc ist für das Spatprodukt gebräuchlich.

64

1 Vektorrechnung in zwei und drei Dimensionen

(b) Bei Vertauschung zweier Faktoren ändert das Spatprodukt sein Vorzeichen [a, b, c] = −[b, a, c] = −[a, c, b] = −[c, b, a] . (c) Distributivgesetze: [a+d, b, c] = [a, b, c]+[d, b, c] . Entsprechendes gilt für den 2. und 3. Faktor. (d) λ[a, b, c] = [λa, b, c] = [a, λb, c] = [a, b, λc]. (e) [i, j , k] = 1. Ferner: (f) Sind zwei Faktoren gleich, so ist das Spatprodukt 0: [a, a, b] = 0 . (g) Addiert man ein Vielfaches eines Faktors zu einem anderen, so ändern sich der Wert des Spatproduktes nicht: [a + λb, b, c] = [a, b, c] (entsprechend für alle übrigen Faktoren). (h) Gilt αa + β b + γ c = 0 mit gewissen α, β, γ ∈ R, die nicht alle 0 sind, so folgt [a, b, c] = 0 . (i) a · b = b · c = c · d = 0 ⇒ |[a, b, c]| = |a||b||c|. Beweis: (a) folgt aus der Determinantendarstellung des Spatproduktes, (b) bis (g) und (i) ergeben sich aus der Definition 1.8 und (h) folgt so: Da α, β, γ nicht alle 0 sind, nehmen wir ohne Beschränkung der Allgemeinheit α = 0 an. Damit ist [a, b, c] =

1 1 1 [αa, b, c] = [αa + β b + γ c, b, c] = [0, b, c] = 0. α α α



Regel (a) liefert die Formel (a × b) · c = a · (b × c) ,

(1.89)

denn die linke Seite ist gleich [a, b, c] = [b, c, a] = (b × c) · a = a · (b × c). Mehrfache Produkte: Produkte aus mehreren Vektoren, wobei innere und äußere Produkte beliebig kombiniert werden, lassen sich mit Hilfe der Formel (1.89) über das Spatprodukt und mit dem Graßmannschen Entwicklungssatz (Satz 1.7, Abschn. 1.2.4)

1.2 Vektoren im dreidimensionalen Raum

a × (b × c) = (a · c)b − (a · b)c

65

(1.90)

vereinfachen. Weitere Hilfsmittel sind nicht nötig! Zur Demonstration zunächst Folgerung 1.11: (Lagrange-Identität) Für alle a, b, c, d aus R3 gilt: (a × b) · (c × d) = (a · c)(b · d) − (a · d)(b · c) .

(1.91)

Beweis: Mit u := c × d ist (a × b) · (c × d) = (a × b) · u = a · (b × u) = a · (b × (c × d)). Der Graßmannsche Entwicklungssatz angewandt auf b×(c×d), liefert damit Gleichung (1.91). Weitere Mehrfachprodukte: (a × b) × (c × d) = (a × b) × u = (a · u)b − (b · u)a = [a, c, d]b − [b, c, d]a, analog

(1.92)

= [a, b, d]c − [a, b, c]d (a × b) · ((b × c) × (c × a)) = [a, b, c]2 .

(1.93)

Der Leser beweise die letzte Gleichung. Rauminhalte von Prisma und Tetraeder: Wir denken uns ein Prisma so von den Vektoren a, b, c aufgespannt, wie es die Fig. 1.58a zeigt. Da das Prisma ein halbes Parallelflach ist, folgt für sein Volumen: V P :=

1 |[a, b, c]| Prisma-Volumen . 2

(1.94)

Ein Tetraeder, aufgespannt von a, b, c(s. Fig. 1.58b)) hat ein Volumen VT , welches ein Drittel des entsprechenden Prisma-Volumens ist(denn VT ) = Grundflächeninhalt × Höhe/3, VT = Grundflächeninhalt × Höhe. Somit folgt VT :=

1 |[a, b, c]| Tetraeder-Volumen . 6

(1.95)

Anwendungen Beispiel 1.28: Eine Flüssigkeit fließt mit konstanter Geschwindigkeit v durch eine Parallelogramm-Fläche, die von a, b aufgespannt wird. Wie groß ist die Flüssigkeitsmenge, die in einer Sekunde durch die Fläche strömt? Dabei werden v in m/s gemessen und a, b in m.

66

1 Vektorrechnung in zwei und drei Dimensionen

Fig. 1.58: Prisma und Tetraeder

Fig. 1.59: Strömung durch eine Parallelogrammfläche

Antwort. Die Flüssigkeitsmenge hat das Volumen V = |[a, b, v]|m 3 , da in einer Sekunde sich das in Fig. 1.59 skizzierte Parallelflach durch die Fläche geschoben hat. Übung 1.48* Welche der folgenden Ausdrücke sind sinnvoll und welche sinnlos? (a) (a + b) · c + d;

(b) (a × b) · c + 5,3;

a×b 2 b ; (e)a × b) · (c × d) + f ; b2 ( f ) 6 + λ(a · b) · (c · d)((( p + d) × f ) · a/8) − |a − b|.

a×b · b(b = 0); (c) b

(d)

Übung 1.49* Vereinfache folgende Ausdrücke so, daß Ausdrücke entstehen, in denen a, b, c höchstens einmal auftreten: 1 (a + b) · ((b + d) × (c + a)) = ? 2 (b) (a − c) · ((a + c) × b) = ? (a)

(c) a × (b × c) + b × (c × a) + c × (a × b) = ?

Übung 1.50* Ein Dreieck mit den Eckpunkten A = (2,1,2) cm, B = (5,7,4) cm, C = (8,0,1) cm wird von einer Flüssigkeit mit konstanter Geschwindigkeit ⎡ ⎤ −1 ⎢ ⎥ cm v = ⎣−1⎦ s 8 durchströmt. Wie groß ist das Volumen der Flüssigkeitsmenge, die in 7 Sekunden durch das Dreieck fließt?

1.2 Vektoren im dreidimensionalen Raum

1.2.7

67

Lineare Unabhängigkeit

Definition 1.9: (a) Eine Summe der Form λ1 a 1 + λ2 a 2 + . . . + λ k a k

(λi ∈ R)

(1.96)

heißt eine Linearkombination der Vektoren a1 , . . . , ak 32 (b) Die Vektoren a1 , a2 . . . , am heißen linear abhängig, wenn wenigstens einer unter ihnen als Linearkombination der übrigen geschrieben werden kann, oder wenn einer der Vektoren 0 ist. Andernfalls heißen die Vektoren a1 . . . , am linear unabhängig.33 Folgerung 1.12: Die Vektoren a1 , . . . , am sind genau dann linear abhängig, wenn λ1 a 1 + λ 2 a 2 + . . . + λ m a m = 0

(1.97)

erfüllt ist, und zwar mit reellen Zahlen λ1 , . . . , λm , die nicht alle Null sind. Beweis: Sei m > 2. Gilt λi  = 0, so kann man (1.97) nach ai auflösen, d.h. ai ist Linearkombination der übrigen ak , d.h. die a1 , . . . , am sind linear abhängig. Umgekehrt bedeutet lineare Abhängigkeit der a1 , . . . , am , daß ein ai Linearkombination der übrigen ist, woraus man eine Gleichung der Form (1.97) gewinnt, mit λi = 1 (m = 1 trivial).  Veranschaulichung. Zwei linear abhängige Vektoren a, b nennt man kollinear, da wegen a = λb oder b = µa beide Vektoren — als Ortsvektoren aufgefaßt — auf einer Geraden liegen. a = 0, b  = 0 sind genau dann linear unabhängig (nicht kollinear), wenn sie nicht parallel sind, d.h. 0 < (a, b) < π, s. Fig. 1.60.

Fig. 1.60: Zwei linear unabhängige Vektoren

Fig. 1.61: Drei linear unabhängige Vektoren

Drei Vektoren a, b,c ∈ R3 , die linear abhängig sind, werden komplanar genannt, da sie — als Ortsvektoren interpretiert — in einer Ebene liegen, wie man sich leicht klar macht. 32 aus R3 oder R2 (oder aus Rn , Abschnitt 2) 33 Für m = 1 folgt: a  = 0 ist linear unabhängig; 0 ist linear abhängig.

68

1 Vektorrechnung in zwei und drei Dimensionen

Drei Vektoren a, b,c ∈ R3 , sind also genau dann linear unabhängig, wenn sie nicht in einer Ebene liegen. Dies ist gleichbedeutend damit, daß ihr Spatprodukt nicht 0 ist: [a, b, c]  = 0 , da nur dann das von a, b, c aufgespannte Parallelogramm ein Volumen  = 0 hat (s. Fig. 1.61). Vier Vektoren a, b, c, d ∈ R3 sind stets linear abhängig. Denn wären sie linear unabhängig, dann wären auch a, b, c linear unabhängig. Dann gäbe es aber eindeutig bestimmte ξ, η, ζ ∈ R mit d = ξ a + ηb + ζ a, wie man geometrisch einsieht (oder durch den Gaußschen Algorithmus, s. Abschn.2.2.4), d.h. d ist Linearkombination der a, b, c und die vier Vektoren wären doch linear abhängig. — Damit folgt: Satz 1.9: Sind a, b, c ∈ R3 linear unabhängige Vektoren, so läßt sich jeder Vektor x ∈ R3 aus ihnen linear kombinieren x = ξ a + ηb + ζ c .

(1.98)

Die Zahlen ξ, η, ζ sind dabei eindeutig bestimmt. Man berechnet sie aus ξ=

[x, b, c] [a, x, c] [a, b, x] , η= , ζ = , Cramersche Regel34 . [a, b, c] [a, b, c] [a, b, c]

(1.99)

Zum Beweis von (1.99) hat man (1.98) nur mit (b × c) bzw. (a × b) durchzumultiplizieren (beachte b · (b × c) = 0 usw.) und die entstehenden Gleichungen nach ξ, η und ζ aufzulösen.  Lineares Gleichungssystem mit drei Unbekannten: (1.98) ist ein solches, und (1.99) ist die Lösung, vorausgesetzt [a, b, c]  = 0. Basis: Ein Tripel (a, b, c) aus drei linear unabhängigen Vektoren a, b, c ∈ R3 heißt eine Basis des R3 . Man kann a, b, c als Koordinatenvektoren eines neuen Koordinatensystems auffassen. Ein beliebiger Vektor x ∈ R3 hat dann die neuen Koordinaten ξ, η, ζ die aus (1.98) und (1.99) hervorgehen. Der Übergang von den ursprünglichen Koordinateneinheitsvektoren i, j , k zu a, b, c nennt man einen Basiswechsel35 . Als neue Basis verwendet man dabei meistens eine Orthonormalbasis. Drei Einheitsvektoren e1 , e2 , e3 ∈ R3 bilden eine Orthonormalbasis (e1 , e2 , e3 ) im R3 , wenn sie paarweise rechtwinklig aufeinander stehen, d.h. ei · ek = δik für alle i, k ∈ {1,2,3} . Dabei ist δik das Kronecker-Symbol, definiert durch  δik :=

1 0

wenn i = k . wenn i  = k

34 [a, b, c] = (a × b) · c Spatprodukt 35 s.Abschn. 3.9.5

(1.100)

1.2 Vektoren im dreidimensionalen Raum

69

Natürlich sind e1 , e2 , e3 linear unabhängig, denn es ist ja [e1 , e2 , e3 ] = 1. Ist x ∈ R3 beliebig, so erhält man die Linearkombination x = ξ e1 + ηe2 + ζ e3

(1.101)

einfach durch ξ = x · e1 , η = x · e2 , ζ = x · e3 .

(1.102)

Dies folgt aus (1.101), wenn man beide Seiten nacheinander mit e1 , e2 , e3 multipliziert. Faßt man e1 , e2 , e3 als Koordinateneinheitsvektoren eines neuen Koordinatensystems auf, so sind darin ξ , η, ζ die Koordinaten von x. Die Gleichungen (1.101), (1.102)beschreiben also einen Wechsel des Koordinatensystems, oder, wie man auch sagt, einen orthonormalem Basiswechsel. (Im R2 verläuft alles analog mit zwei Basisvektoren.)

Fig. 1.62: Koordinatenwechsel

Übung 1.51* Auf der Erdoberfläche im Punkt P mit der geographischen Breite ϑ = 60◦ und der geographischen Länge ϕ = 70◦ wird ein ξ − η − ζ Koordinatensystem errichtet: ζ -Achse rechtwinklig auf der Erdoberfläche nach außen weisend, ξ -Achse nach Osten, η-Achse nach Norden gerichtet(s. Fig. 1.62) (a) Gib die Koordinateneinheitsvektoren e1 , e2 , e3 des ξ -η-ζ -Koordinatensystem an (in Koordinaten bzgl. des x, y, z Systems ausgedruckt, s. 1.62)! (b) Ein Punkt A im Weltraum habe die Koordinaten x = 20000km, y = 30000km, z = 70000km. Gib seine Koordinaten im ξ −η −ζ -System an! Der Erdradius ist R = 6367km.

70

1 Vektorrechnung in zwei und drei Dimensionen

Übung 1.52: Prüfe nach, ob die folgenden drei Vektoren linear abhängig sind ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ 1 −2 −1 ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ a = ⎣−3⎦ , b = ⎣ 5 ⎦ , c = ⎣ 0 ⎦ . 2 1 13

1.2.8

Geraden und Ebenen im R3

Gerade: Eine Gerade im R3 wird (wie im R2 ) durch folgende Parameterform beschrieben: r = r 0 + λs, s  = 0, λ ∈ R .

(1.103)

D.h.: Durchläuft λ alle reellen Zahlen, so durchläuft die Spitze des Ortsvektors r alle Punkte der Geraden. Lot auf eine Gerade: Von einem Punkt r 1 36 ziehe man die kürzeste Verbindungsstrecke zur Geraden, das sogenannte Lot. Wie in Abschn. 1.1.7 erhält man den Fußpunkt des Lotes von r 1 auf der Geraden als r ∗ = r 0 + λ1 s mit λ1 =

(r 1 − r 0 ) · s , s2

(1.104)

und den Abstand a des Punktes r 1 von der Geraden durch a = |r ∗ − r 1 |.

(1.105)

Abstand zweier Geraden. Es seien r = r 1 + λs1 , r = r 2 + µs2 die Parameterformen zweier nicht paralleler Geraden im R3 , d.h. s1 , s2 sind nicht kollinear.37 Schneiden sich die Geraden nicht, so heißen sie windschief zueinander. Will man den Abstand der beiden Geraden berechnen, so errechnet man zuerst den Vektor c = s1 × s2 , der rechtwinklig auf beiden Geraden steht, und löst dann das folgende Gleichungssystem nach λ, µ und ν auf: (r 1 + λs1 ) − (r 2 + µs2 ) = νc. Die Gleichung besagt, daß r 1 + λs1 und r 2 + µs2 die Punkte der beiden Geraden sind, die den kleinsten Abstand voneinander haben. (Ihre Differenz muß parallel zu c sein, also gleich νc). 36 Genauer: Von einem Punkt mit Ortsvektor r 1 . 37 D.h.: nicht s2 = µ1 s1 oder s2 = µ2 s1 , s. Abschn. 1.2.7

1.2 Vektoren im dreidimensionalen Raum

71

Damit ist a = |νc|

(1.106)

der Abstand der beiden Geraden voneinander. Ebene: Eine Ebene im R3 wird durch folgende Parameterform beschrieben: r = r 0 + λa + µb,

λ, µ ∈ R

(1.107)

Fig. 1.63: Zur Parameterform der Ebene

wobei a und b nicht kollinear sind. Fig 1.63 zeigt, daß r Ortsvektor eines Punktes auf einer Ebene durch die Spitze von r 0 ist, und daß alle Ebenenpunkte so beschrieben werden, wenn λ, µ alle reellen Zahlen durchlaufen. Man sagt auch, die Ebene wird in r 0 durch a und b »aufgespannt«. Sind drei Punkte einer Ebene gegeben, die die Ortsvektoren r 0 , r 1 , r 2 haben, und sind a = r 1 − r 0 , b = r 2 − r 0 nicht kollinear, so bilden die Vektoren a, b, r 0 eine Parameterform (1.107) der Ebene. Die Ebene kann auch durch die Hessesche Normalform r·n=

(1.108)

beschrieben werden, wobei n ein Einheitsvektor ist, der rechtwinklig auf der Ebene steht, und

≥ 0 der Abstand der Ebene von 0. (Die geometrische Begründung dafür ist völlig analog zur Hesseschen Normalform einer Geraden im R2 , s. Abschn. 1.1.6). Will man die Parameterform der Ebene in die Hessesche Normalform r · n = umwandeln, so berechnet man n und so:  c falls c · r 0 ≥ 0, a×b c= . , |c · r 0 | = und n = |a × b| −c falls c · r 0 < 0 Liegt umgekehrt eine Ebene in Hessescher Normalform vor, so berechne man aus ihr drei beliebige Punkte r 0 , r 1 , r 2 der Ebene, wobei r 1 − r 0 und r 2 − r 0 nicht kollinear sein sollen. Dann erhält man mit a = r 1 − r 0 , b = r 2 − r 0 und r 0 daraus die Parameterform (1.107).

72

1 Vektorrechnung in zwei und drei Dimensionen

Die Hessesche Normalform r · n = lautet mit ⎡ ⎤ ⎡ ⎤ x nx r = ⎣ y ⎦ , n = ⎣n y ⎦ , z nz ausführlich nx x + n y y + nz z = .

(1.109)

Damit beschreibt auch jede Gleichung der Form ax + by + cz = d

(1.110)

(wobei a, b, c nicht alle gleich Null sind) eine Ebene, da man sie durch die Formeln   + falls d ≥ 0, τ = ± a 2 + b2 + c2 , wobei − falls d < 0, a b c d , n y = , nz = , = , τ τ τ τ in die Hessesche Normalform (1.109) verwandeln kann. nx =

Lot auf eine Ebene: Von einem Punkt r 1 denke man sich die kürzeste Verbindungsstrecke zur Ebene gezogen. Sie heißt das Lot von r 1 auf die Ebene. Hat die Ebene die Parameterform (1.107), so ist c = a × b parallel zum Lot. Den Fußpunkt r ∗ des Lotes auf die Ebene findet man, indem man λ∗ , µ∗ , ν aus dem Gleichungssystem r 0 + λ∗ a + µ∗ b − r 1 = νc

(1.111)

berechnet und r ∗ = r 0 + λ∗ a + µ ∗ b

(1.112)

setzt. (Denn Gleichung (1.111) besagt, daß die Differenz r ∗ − r 1 ein Vielfaches von n ist, also rechtwinklig auf der Ebene steht.) Der Abstand des Punktes r 1 von der Ebene ist damit gleich a = |r ∗ − r 1 | .

(1.113)

Mit der Hesseschen Normalform (1.108) der Ebene findet man den Abstand noch bequemer durch a = |r 1 · n − | .

(1.114)

1.2 Vektoren im dreidimensionalen Raum

73

Schnittgerade zweier Ebenen: Wir denken uns zwei Ebenen durch ihre Hesseschen Normalformen r · n1 = 1 , r · n2 = 2

(1.115)

gegeben, wobei n1 , n2 nicht kollinear sind. Aus diesen beiden Gleichungen berechnen wir einen Punkt r 0 , der beide Gleichungen erfüllt, indem wir eine Koordinate von r 0 gleich 0 setzen, und aus dem Gleichungssystem (1.115) die übrigen beiden Koordinaten von r 0 ermitteln (welche Koordinate 0 gesetzt werden darf, muß evtl. ausprobiert werden). Da die Gerade in beiden Ebenen liegt, steht sie rechtwinklig auf n1 und n2 . D.h.: s = n1 × n2 ist zur Geraden parallel. Damit lautet die Parameterform der Geraden r = r 0 + λs

mit

s = n1 × n2 .

(1.116)

Übung 1.53* Berechne den Abstand der beiden Geraden ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ 2 −1 8 8 ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ r = ⎣0⎦ + λ ⎣ 5 ⎦ , r = ⎣7⎦ + λ ⎣−2⎦ . 1 0 1 1

Übung 1.54: Beschreibe die Ebene durch die Punkte A = (3,1,1), B = (1,5,0), C = (2,1,6) in Parameterform und Hessescher Normalform.

Übung 1.55* Neben ⎡ ⎤eine zweite Ebene gegeben, die rechtwinklig auf u = ⎡ ⎤ der Ebene aus Übung 1.54 sei noch 5 1 ⎢ ⎥ ⎢ ⎥ = steht und durch den Punkt r 1 ⎣9⎦ verläuft. Gib eine Parameterform der Schnittgeraden ⎣ ⎦ 0 4 1 beider Ebenen an.

Übung 1.56* Durch x + 2y + 2z = 12 ist eine Ebene im R3 gegeben. Ein Lichtstrahl, der entlang der Geraden mit der Parameterform ⎡ ⎤ ⎡ ⎤ 11 11 ⎢ ⎥ ⎢ ⎥ x = r 0 + λs mit r 0 = ⎣−2⎦ , s = ⎣−2⎦ 10 10 auf die Ebene zuläuft, und zwar in Richtung von s, wird an der Ebene reflektiert (man stelle sich die Ebene als Spiegel vor). (a) In welchem Punkte trifft der Lichtstrahl auf die Ebene?

74

1 Vektorrechnung in zwei und drei Dimensionen

(b) Welchen Wert hat der Einfallswinkel des Lichtstrahls (Winkel zwischen Lichtstrahl und Senkrechter auf der Ebene)? (c) Auf welcher Geraden verläuft der reflektierte Strahl? Gib die Parameterform r = r 1 + λa dazu an, in der r 1 der Auftreffpunkt des Strahls auf den Spiegel ist und |a| = 1.

2

Vektorräume beliebiger Dimensionen

In diesem Abschnitt werden zunächst die Vektorräume Rn und Cn behandelt, einschließlich linearer Gleichungssysteme. Anschließend werden allgemeinere algebraische Strukturen erörtert: Gruppen, Körper und Vektorräume über beliebigen Körpern samt linearen Abbildungen. Diese abstrakteren Teile (ab Abschn. 2.3) können vom anwendungsorientierten Leser zunächst übersprungen werden.

2.1

Die Vektorräume Rn und Cn

2.1.1

Der Raum Rn und seine Arithmetik

Analog zum R2 und R3 führt man Rn ein: Der Rn ist die Menge aller reellen Spaltenvektoren ⎡ ⎤ x1 ⎢ x2 ⎥ ⎢ ⎥ x = ⎢ . ⎥ (x1 , . . . , xn ∈ R) . ⎣ .. ⎦ xn Die reellen Zahlen x1 , . . . , xn heißen dabei die Koordinaten (Komponenten, Einträge) des Spaltenvektors x 1 , und n ist seine Dimension. Zwei Spaltenvektoren x und y, s. (2.1), sind genau dann gleich, x = y, wenn ihre entsprechenden Koordinaten übereinstimmen, d.h. wenn x1 = y1 , x2 = y2 , . . . , xn = yn gilt. (Spaltenvektoren verschiedener Dimensionen sind natürlich verschieden.) ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ x1 y1 x1 ± y1 λx1 ⎢ x2 ⎥ ⎢ y2 ⎥ ⎢ x2 ± y2 ⎥ ⎢λx2 ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ x = ⎢ . ⎥ , y = ⎢ . ⎥ , x ± y = ⎢ . ⎥ , λx = ⎢ . ⎥ . (2.1) ⎣ .. ⎦ ⎣ .. ⎦ ⎣ .. ⎦ ⎣ .. ⎦ xn yn xn ± yn λxn Addition, Subtraktion, Multiplikation mit einem Skalar λ ∈ R (auch s-Multiplikation genannt), werden mit den Vektoren des Rn koordinatenweise ausgeführt, wie in (2.1) angegeben. Es gelten alle Regeln des Satzes 1.1 aus Abschn. 1.1.3 entsprechend: Assoziativgesetz für +, Kommutativgesetz für +, usw. Auf Grund dieser Gesetze nennt man Rn einen n-dimensionalen reellen Vektorraum. Klammern werden bei längeren Summen und Multiplikationen mit Skalaren normalerweise 1 Auch die waagerechte Schreibweise [x1 , . . . , xn ] (oder (x1 , . . . , xn )) wird viel verwendet. Man spricht dann von Zeilenvektoren. Der gemeinsame Ausdruck für Zeilen- und Spaltenvektoren ist n-Tupel. Wir bevorzugen beim Rn die senkrechte Anordnung, da sie sich später zwangloser in die Matrizenrechnung einordnet.

76

2 Vektorräume beliebiger Dimensionen

weggelassen, man schreibt also a + b + c, a + b + c + d usw., λµa, λµνa usw. Weitere Bräuche: ⎡ ⎤ 0 x 1 ⎢ .. ⎥ −x := (−1)x , xλ := λx , := x , (λ  = 0) , 0 := ⎣ . ⎦ . (2.2) λ λ 0 Dies alles hat niemand anders erwartet! Bemerkung: (a) Die Vektoren des Rn werden auch Punkte oder Elemente genannt, um sprachliche Eintönigkeit zu vermeiden. (b) R1 und R werden als gleich angesehen, d.h. man setzt einfach [x] = x ∈ R. (c) Im R2 und R3 werden Vektoren gerne durch Pfeile über den Buchstaben symbolisiert. x und x bedeuten im Rn mit n = 2 oder n = 3 also dasselbe.2 Aus schreibtechnischen Gründen notiert man Spaltenvektoren des Rn auch in der Form x = [x1 , x2 , . . . , xn ]T , wobei T die Abkürzung für »transponiert« ist. Beispiel 2.1: Ein physikalisches Beispiel für einen höherdimensionalen Raum ist der sechsdimensionale Phasenraum R6 in der kinetischen Gastheorie. Jedem Punkt (Gasmolekül) ordnet man dabei seine drei Ortskoordinaten und seine drei Impulskoordinaten zu, die zu einem 6-dimensionalen Vektor zusammengefaßt werden (s. [72], S. 545ff). 2.1.2

Inneres Produkt, Beträge von Vektoren

Definition 2.1: (a) Das innere Produkt (Skalarprodukt) zweier Vektoren ⎡ ⎤ ⎡ ⎤ y1 x1 ⎢ .. ⎥ ⎢ .. ⎥ x=⎣.⎦, y=⎣.⎦ xn

yn

aus Rn ist definiert durch x · y = x1 y1 + x2 y2 + . . . + xn yn

(2.3)

(b) Der Betrag von x, auch Länge oder euklidische Norm genannt, ist 2 Die Kennzeichnung der Vektoren des R2 und R3 durch Pfeile kommt von der Veranschaulichung durch geome−→ trische Pfeile AB her. Ab Dimension 4 versagt die Anschauung aber. Hier sind Vektoren nur noch algebraische Objekte. Aus diesem Grunde wählen wir bei allgemeinen Erörterungen des Rn die neutrale Schreibweise x also die Darstellung durch fett geschriebene Zeichen.

2.1 Die Vektorräume Rn und Cn

|x| :=



x·x=



x12 + x22 + . . . + xn2 .

77

(2.4)

Abkürzung x 2 = x · x. Satz 2.1: (Regeln für das innere Produkt) Für alle Vektoren x, y, z aus Rn und alle λ ∈ R gilt: (I) x· y= y·x (II) (x + y) · z = x · z + y · z (III) (IV)

Kommutativgesetz Distributivgesetz

λ(x · y) = (λx) · y = x · (λ y) x = 0 ⇔ x · x > 0

Assoziativgesetz positive Definitheit

Ferner: Regeln für die Beträge von Vektoren: |λx| = |λ||x|

(V)

Homogenität

(VI) |x · y| ≤ |x|| y| (VII) |x + y| ≤ |x| + | y|

Schwarzsche Ungleichung Dreiecksungleichung

(VIII) |x − y| ≥ ||x| − | y||

2. Dreiecksungleichung Definitheit

(IX)

|x| = 0 ⇔ x = 0

Bemerkung: Es handelt sich hier um die gleichen Regeln, wie wir sie aus R2 und R3 kennen. Beweis: Die Nachweise von (I) bis (V) und (IX) ergeben sich unmittelbar aus den Koordinatendarstellungen der Vektoren.-Zum Beweis der Schwarzschen Ungleichung (VI) bemerken wir zunächst, daß sie im Falle y = 0 erfüllt ist. Im Falle y  = 0 arbeitet man mit dem Hilfsvektor p = ((x · y)/ y2 ) y (der Projektion von x auf y, wenn man an R2 oder R3 denkt). Damit ist 0 ≤ (x − p)2 = x 2 − 2

(x · y)2 (x · y)2 (x · y)2 2 + = x − y2 y2 y2

⇒0 ≤ x 2 y2 − (x · y)2 ⇒ (x · y)2 ≤ x 2 y2 ⇒ |x · y| ≤ |x|| y| . Die Dreiecksungleichung ergibt sich nun leicht aus (VI): |x + y|2 = (x + y)2 = |x|2 + 2x · y + | y|2 ,

(VI) liefert:

≤ |x| + 2|x|| y| + | y| = (|x| + | y|) . 2

2

2

Die 2. Dreiecksungleichung erhält man analog zu Folg. 1.3 in Abschn. 1.1.3.



Mit dem Distributivgesetz (II) leitet man wieder die binomischen Formeln her: (a + b)2 = a2 + 2a · b + b2 , (a + b) · (a − b) = a2 − b2 .

(a − b)2 = a2 − 2a · b + b2 ,

(2.5)

78

2 Vektorräume beliebiger Dimensionen

Bemerkung: Das innere Produkt ist hier algebraisch eingeführt worden, da wir ja im unanschaulichen Raum Rn zunächst keine geometrischen Begriffe wie Winkel, Geraden usw. haben. Diese können wir nun aber analog zum R2 oder R3 erklären, wobei wir das innere Produkt heranziehen. Dies geschieht in den folgenden Abschnitten. Übung 2.1: Zeige: |x + y| = |x| + | y| gilt genau dann, wenn |x| y = | y|x gilt.

2.1.3

Unterräume, lineare Mannigfaltigkeiten

Die Begriffe Linearkombination, lineare Abhängigkeit und Unabhängigheit werden wörtlich aus Abschn. 1.2.7 vom R3 in den Rn übernommen: (I)

m $

λi ai (mit λi ∈ R) heißt eine Linearkombination der Vektoren a1 , . . . , am ∈ Rn .

i=1

(II) a1 , . . . , am ∈ Rn sind linear abhängig, wenn wenigstens einer der Vektoren als Linearkombination der übrigen darstellbar ist, oder einer der Vektoren 0 ist. Andernfalls heißen a1 , . . . , am linear unabhängig. (III) Es folgt: a1 , . . . , am ∈ Rn sind genau dann linear unabhängig, wenn die Linearkombination m 

λi ai = 0

(2.6)

i=1

nur mit λ1 = λ2 = . . . = λm = 0 möglich ist. (s. Folg. 1.12, Abschn. 1.2.7) Satz 2.2: (Fundamentallemma) Je n + 1 Vektoren des Rn sind linear abhängig. Beweis: Beweis: Sind a1 , a2 , . . . , an+1 beliebige n + 1 Vektoren des Rn , so betrachten wir die Gleichung n+1  λk ak = 0. Koordinatenweise hingeschrieben, ist dies ein Gleichungssystem von n Gleichunk=1

gen für die n + 1 Unbekannten λ1 , . . . , λn+1 . Wir denken uns die »Nullzeile« 0 · λ1 + . . . + 0 · λn+1 = 0 noch darunter geschrieben, um ebenso viele Gleichungen wie Unbekannte zu haben. Die Nullzeile ändert die Lösungsgesamtheit nicht. Mit dem Gaußschen Algorithmus3 ergibt sich aber, daß dieses Gleichungssystem unendlich viele Lösungen hat. (Es entsteht kein Dreieckssystem und Folgerung 2.4(b) in Abschn. 2.2.3 gilt.) Damit gibt es Lösungen, bei denen die λk nicht alle 0 sind, d.h.: Die a1 , . . . , an+1 sind linear abhängig.  3 Hier wird auf die Abschnitte 2.2.1 und 2.2.3 vorgegriffen. Dabei entsteht kein logischer Zirkel, da die dortige Erläuterung des Gaußschen Algorithmus (bis Folg. 2.4) unabhängig vom vorliegenden und nächsten Abschnitt verstanden werden kann.

2.1 Die Vektorräume Rn und Cn

79

Da die Koordinateneinheitsvektoren e1 , . . . , en (ei := [0, . . . , 0,1,0, . . . , 0]T , 1 an i-ter Stelle, sonst Nullen) sicherlich linear unabhängig sind, ist n die maximale Zahl linear unabhängiger Vektoren des Rn . Dies motiviert zu folgendem Dimensionsbegriff: Definition 2.2: (I) Eine Teilmenge U von Rn heißt ein Unterraum oder Teilraum von Rn , wenn mit je zwei Vektoren a, b aus U auch a + b und λa (für alle λ ∈ R) in U liegen. (II) Die maximale Anzahl linear unabhängiger Vektoren aus U heißt die Dimension von U . (III) Es sei m die Dimension von U . Darin wird jedes m-Tupel (a1 , a2 . . . , am ) von linear unabhängigen Vektoren aus U eine Basis von U genannt. Man schreibt symbolisch: dim U = m . Bemerkung. Der kleinste Unterraum von Rn ist U = {0}. Er hat die Dimension 0. Der größte Unterraum von Rn ist Rn selbst, mit der Dimension n. Allgemein läßt sich ein Unterraum von Rn so beschreiben: Satz 2.3: (a) Ist (a1 , . . . , am ) eine Basis des m-dimensionalen Unterraumes U von Rn , so ist U die Menge aller Linearkombinationen x = λ1 a1 + λ2 a2 + . . . + λm am

(λi ∈ R) .

(2.7)

(b) Die reellen Zahlen λ1 , . . . , λm sind dabei eindeutig durch x und die Basis (a1 , . . . , am ) bestimmt. Beweis: (a) Ist x ein beliebiger Vektor aus U1 so sind x, a1 , . . . , am linear abhängig, da es nicht mehr als m linear unabhängige Vektoren in U gibt (wegen dim U = m). Also gibt es eine Linearkombination µ0 x + µ1 a1 + . . . + µm am = 0 ,

(µi ∈ R) .

(2.8)

in der nicht alle µi Nullen sind. Dann ist aber µ0  = 0, sonst wären die (a1 , . . . , am ) linear abhängig. Division der Gl. (2.8) durch µ0 und λi := −µi /µ0 liefern Gleichung (2.7). Umgekehrt muß jedes x der Form (2.7) zu U gehören, da nach Definition des Unterraumes folgendes gilt: λi ai ∈ U für alle i, λ1 a1 + λ2 a2 ∈ U , (λ1 a1 + λ2 a2 ) + λ3 a3 ∈ U usw. (b) Zum Nachweis der Eindeutigkeit der λi nehmen wir an, daß es neben (2.7) eine weitere m m $ $ Linearkombination x = µi ai gibt. Subtraktion von (2.7) liefert 0 = (λi − µi )ai . Da i=1

i=1

die a1 , . . . , am linear unabhängig sind, folgt λi − µi = 0, also λi = µi für alle i, d.h. die λi sind eindeutig bestimmt. 

80

2 Vektorräume beliebiger Dimensionen

Umgekehrt regt (2.7) zur Konstruktion von Unterräumen an: Ist A eine beliebige nichtleere Teilp $ λi ai mit beliebigen menge des Rn , so bildet die Menge aller Linearkombinationen x = i=1

λi ∈ R, ai ∈ A und p ∈ N offenbar einen Unterraum U von Rn . Er wird durch U =: Span A symbolisiert. Man sagt, »A spannt den Unterraum U auf«, oder: A ist ein Erzeugendensystem von U . Oft ist A dabei eine endliche Menge {a1 , . . . , am }. Der von {a1 , . . . , am } aufgespannte Unterraum U = Span{a1 , . . . , am } besteht also aus allen Linearkombinationen x =

m $

λi ai . Sind die a1 , . . . , am hierbei linear

i=1

unabhängig, so bilden sie eine Basis von U , wie wir im Folgenden beweisen: Satz 2.4: (Konstruktion von Unterräumen im Rn ) Sind die Vektoren a1 , . . . , am ∈ Rn linear unabhängig, so bilden die Vektoren der Form x = λ1 a1 + . . . + λm am

(λi ∈ R)

(2.9)

einen m-dimensionalen Unterraum von Rn . Die Menge {a1 , . . . , am } ist also eine Basis des Unterraumes. Beweis: (I) Die Vektoren der Form (2.9) bilden einen Unterraum U , wie oben erläutert. Seine Dimension ist mindestens m, da er ja die m Vektoren (a1 , . . . , am ) enthält. Frage: Gibt es mehr als m linear unabhängige Vektoren in U ? Wir zeigen, daß dies nicht der Fall ist, d.h. es wird folgendes bewiesen: (II) Je m + 1 Vektoren aus U sind linear abhängig. Zum Beweis wählt man m + 1 beliebige Vektoren b1 , . . . , bm+1 ∈ U aus. Sie lassen sich in folgender Form darstellen: bi =

m 

γik ak

(γik ∈ R) ,

i = 1, . . . , m + 1 .

k=1

Man betrachtet nun die Gleichung m+1 

λi bi = 0 .

(2.10)

i=1

Sie wird umgeformt in 0=

m+1  i=1

λi bi =

m+1  i=1

λi

m  k=1

γik ak =

m  k=1

ak

m+1  i=1

λi γik .

(2.11)

2.1 Die Vektorräume Rn und Cn

81

Da die ak linear unabhängig sind, muß m+1 

λi γik = 0

für alle k = 1, . . . , m

i=1

gelten. Wir fassen die γik zu Vektoren ci = [γi1 , . . . , γim ]T zusammen. Die letzte Gleichung wird damit zu m+1 

λi ci = 0 ,

ci ∈ Rm .

(2.12)

i=1

Da aber je m + 1 Vektoren des Rm linear abhängig sind (Satz 2.2), gibt es λi , die nicht alle Null sind, und die (2.12) erfüllen. Wegen (2.11) ist damit auch (2.10) mit diesen λi richtig,  d.h. die bi sind linear abhängig. Satz 2.5: (Austausch von Basiselementen) Es sei U ein m-dimensionaler Unterraum von Rn mit der Basis (a1 , . . . , am ). Sind b1 , . . . , bk (mit k < m) beliebige linear unabhängige Vektoren aus U , so kann man sie zu einer Basis (b1 , . . . , bk , bk+1 , . . . , bm ) von U ergänzen, wobei die bk+1 , . . . , bm aus {a1 , . . . , am } entnommen sind. Beweis: Es gibt ein ai , das nicht Linearkombination der b1 , . . . , bk ist. Wären nämlich alle a1 , . . . , am m $ Linearkombinationen der b1 , . . . , bk , so wären damit alle x = λi ai ∈ U auch Linearkombii=1

nation der b1 , . . . , bk , (nach Ersetzen der ai durch Linearkombinationen der b1 , . . . , bk ). Damit hätte U eine Dimension ≤ k (nach Satz 2.4). Wegen k < m kann dies nicht sein. Also ist wenigstens ein ai keine Linearkombination der b1 , . . . , bk . Setze bk+1 := ai und wende den gleichen Schluß auf b1 , . . . , bk+1 an, (falls k + 1 < m). So fortfahrend erhält man die neue Basis (b1 , . . . , bm ) von U .  Geraden und Ebenen im R2 und R3 hatten wir durch Parameterdarstellungen beschrieben. Ihre Verallgemeinerungen auf den Rn heißen »lineare Mannigfaltigkeiten«. Definition 2.3: Es seien r 0 , a1 , . . . , am (m ≤ n) Vektoren des Rn , wobei a1 , a2 , . . . , am linear unabhängig seien. Dann heißt die Menge aller Vektoren x = r 0 + λ1 a 1 + λ2 a 2 + . . . + λ m a m

(λi ∈ R)

(2.13)

eine m-dimensionale lineare Mannigfaltigkeit. Im Falle m = 1, also x = r 0 + λ1 a1 (λ1 ∈ R) nennt man sie eine Gerade, im Falle m = n − 1 eine Hyperebene im Rn .

82

2 Vektorräume beliebiger Dimensionen

Gleichung (2.13) wird die Parameterdarstellung der linearen Mannigfaltigkeit genannt. Die m $ Vektoren λk ak , mit den ak aus (2.13), bilden einen m-dimensionalen Unterraum U (siehe k=1

Satz 2.4). Aus diesem Grunde symbolisiert man die Mannigfaltigkeit M in Def. 2.3 auch durch M = r0 + U .

(2.14)

Folgerung 2.1: Ist M eine m-dimensionale lineare Mannigfaltigkeit in Rn und x 0 irgendein Vektor aus M, so ist M − x 0 := {x − x 0 | x ∈ M}

(2.15)

ein m-dimensionaler Unterraum von Rn . Eine Hyperebene H , gegeben durch x = r 0 +

n−1 $

λi ai , (s. (2.13)) kann auch in der Hesseschen

i=1

Normalform x · n = ρ (ρ ≥ 0) beschrieben werden (analog zu R2 und R3 ). n  = 0 wird dabei aus dem Gleichungssystem ai · n = 0 (i = 1, . . . , n − 1) berechnet (eindeutig bis auf einen reellen Faktor  = 0, s. Gaußscher Algorithmus für rechteckige Systeme, Abschn. 2.2.5). Durch |n| = 1 und n · r 0 > 0 ist n und ρ = n · r 0 eindeutig bestimmt (falls ρ > 0). Übung 2.2* Es sei eine Hyperebene im R4 durch folgende Parameterdarstellung gegeben ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ 1 −1 10 3 ⎢8⎥ ⎢2⎥ ⎢−1⎥  ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ x= λi ai , mit a1 = ⎢ ⎥ , a2 = ⎢ ⎥ , a3 = ⎢ ⎥ . ⎣2⎦ ⎣7⎦ ⎣3⎦ i=1 0 −2 4 Gib die Hessesche Normalform dazu an. Hinweis: Löse zunächst das Gleichungssystem a1 · n = 0, a2 · n = 0, a3 · n = 0 für einen (unbekannten) Vektor n , dessen letzte Komponente 1 gesetzt wird. Denke an die Cramersche Regel in 1.2.8. Berechne dann n und ρ aus n .

Geometrie im Rn , Winkel, Orthogonalität

2.1.4 Winkel

Definition 2.4: Der Winkel ϕ zwischen zwei Vektoren a, b ∈ Rn mit a  = 0, b  = 0, ist ϕ = (a, b) := arccos

a·b . |a| · |b|

Ist a = 0 oder b = 0, so kann (a, b) jede Zahl aus [0, π] sein.

(2.16)

2.1 Die Vektorräume Rn und Cn

83

Man sagt, a und b aus Rn stehen rechtwinklig (senkrecht, orthogonal) aufeinander — in Zeichen a ⊥ b — wenn a · b = 0 ist (also (a, b) = π/2 im Falle a = 0, b = 0). Man gewinnt daraus unmittelbar: Folgerung 2.2: (a) Pythagoras im Rn . Zwei Vektoren a, b ∈ Rn stehen genau dann rechtwinklig aufeinander, wenn Folgendes erfüllt ist: (a + b)2 = a2 + b2

(wie auch (a − b)2 = a2 + b2 ).

(2.17)

Für alle a, b ∈ Rn gelten die folgenden Gleichungen: (b) Cosinussatz: (a − b)2 = a2 + b2 − 2|a||b| cos (a, b) .

(2.18)

(c) Parallelogrammgleichung: (a + b)2 + (a − b)2 = 2(a2 + b2 ) .

(2.19)

Orthonormalbasis Definition 2.5: (a) Sind a1 , . . . , am ∈ Rn Vektoren der Länge 1, die paarweise rechtwinklig aufeinander stehen, so nennt man das m-Tupel (a1 , . . . , am ) dieser Vektoren ein Orthonormalsystem. Es gilt also dabei: ai · ak = δik

für alle i, k ∈ {1, . . . , m}  1 , falls i = k mit dem Kroneckersymbol δik := 0 , falls i  = k.

(2.20) (2.21)

(b) Eine Orthonormalbasis von Rn , oder eines Unterraumes von Rn , ist eine Basis, die gleichzeitig ein Orthonormalsystem ist. Bemerkung: (a) die Koordinateneinheitsvektoren ei ∈ Rn bilden eine Orthonormalbasis von Rn . (b) Die Vektoren ai eines Orthonormalsystems (a1 , . . . , am ) sind linear unabhängig, denn aus m $ λi ai = 0 folgt nach Multiplikation mit ak sofort: λk ak · ak = 0, also λk = 0 (wegen i=1

ak · ak = |ak |2 = 1), für alle k = 1, . . . , m.

84

2 Vektorräume beliebiger Dimensionen

Ist nun (b1 , . . . , bm ) eine beliebige Basis eines m-dimensionalen Unterraumes U von Rn (der auch gleich Rn sein kann), so können wir sie in eine Orthonormalbasis von U verwandeln. Das gelingt (z.B.) mit dem folgenden Orthogonalisierungsverfahren von Erhard Schmidt4 : Man setzt (I) (II)

a1 := b1 /|b1 | .

(2.22)

Für k = 2,3, . . . , m bildet man nacheinander d k := bk −

k−1 

(bk · ai )ai

5

(2.23)

i=1

und ak := d k /|d k | . Damit ist für zwei beliebige verschiedene a j , ak , wobei wir ohne Beschränkung der Allgemeinheit j < k annehmen, nach (2.23): ak · a j =

1 1 (d k · a j ) = (bk · a j − (bk · a j )1) = 0 . |d k | |d k |

Ferner ist offensichtlich |ak | = 1 für alle k. Damit bilden die a1 , . . . , am eine Orthonormalbasis von U . — Wir haben somit gezeigt: Satz 2.6: Jeder Unterraum von Rn besitzt eine Orthonormalbasis. Ferner gilt: Satz 2.7: Ist (a1 , . . . , am ) ein Orthonormalsystem und x eine Linearkombination daraus: x=

m 

λi ai ,

i=1

so lassen sich die Komponenten λi auf folgende Weise leicht berechnen: λi = x · ai für alle i = 1, . . . , m .

Beweis: x · ak =

m $

(2.24)

λi ai · ak = λk ak · ak = λk , also x · ak = λk . Ersetzt man hier k durch i, so folgt

i=1

(2.24). 4 Erhard Schmidt (1876 – 1959), deutscher Mathematiker 5 Es ist d k  = 0. Denn d k ist eine Linearkombination der b1 , . . . , bk (durch Induktion leicht nachweisbar). Der Koeffizient von bk ist dabei 1, s. (2.23). Wäre d k = 0, so müßte er aber 0 sein, da b1 , . . . , bk linear unabhängig sind. Also ist d k  = 0.



2.1 Die Vektorräume Rn und Cn

85

Orthogonales Komplement Definition 2.6: (a) Ist U ein Unterraum von Rn , so heißt die Menge der Vektoren x ∈ Rn , die auf jedem Vektor von U rechtwinklig stehen, das orthogonale Komplement U ⊥ von U . In Formeln: U ⊥ := {x ∈ Rn | x · u = 0 für alle u ∈ U } . (b) Allgemeiner: Ist V ein Unterraum von Rn , der den Unterraum U umfaßt: U ⊂ V , so heißt UV⊥ := {x ∈ V | x · u = 0 für alle u ∈ U } das orthogonale Komplement von U bzgl. V . U ⊥ und UV⊥ sind offenbar Unterräume von Rn . Folgerung 2.3: Es sei U ⊂ V, wobei U, V Unterräume von Rn sind. Damit folgt (a) dim U + dim UV⊥ = dim V . (b) Jedes v ∈ V läßt sich eindeutig als Summe v = u + u∗ mit u ∈ U , u∗ ∈ UV⊥ darstellen. Im Fall V = Rn folgt: dim U + dim U ⊥ = n. Beweis: (a) Man wähle eine Orthonormalbasis (b1 , . . . , bm ) in U (nach Satz 2.6 möglich), erweitere sie zu einer Basis in V (nach Satz 2.5 in Abschn. 2.1.3) und verwandle sie mit dem Schmidtschen Orthogonalisierungsverfahren in eine Orthonormalbasis (b1 , . . . , bm , bm+1 , . . . , b p ) in V . Dann spannen bm+1 , . . . , b p offenbar den Raum UV⊥ auf, und es gilt (a). (b) v = λ1 b1 + . . . + λm bm + λm+1 bm+1 + . . . + λ p b p .       u



u∗

Bemerkung: Dies trockene Zeug erweist sich bei linearen Gleichungssystemen und Eigenwertproblemen später als nützlich. 2.1.5

Der Raum Cn

Analog zum Raum Rn wird der Raum Cn gebildet. Er besteht aus allen Spaltenvektoren (nTupeln) ⎡ ⎤ z1 ⎢ .. ⎥ z = ⎣ . ⎦ (z i ∈ C) 6 zn

86

2 Vektorräume beliebiger Dimensionen

mit komplexen Zahlen z i , Koordinaten genannt. Addition und Multiplikation mit Skalaren λ ∈ C sind, wie im Rn , koordinatenweise definiert, womit auch alle Gesetze über Addition und Multiplikation mit Skalaren unverändert ⎤ ⎡ ⎤ ⎡ gelten. w1 z1 ⎢ .. ⎥ ⎢ .. ⎥ Das innere Produkt aus z = ⎣ . ⎦, w = ⎣ . ⎦ ∈ Cn ist so erklärt zn

z · w :=

n 

wn

z i wi ,

i=1

wobei wi die zu wi konjugiert komplexe Zahl ist. Damit gilt z·w =w·z für alle z, w ∈ Cn . Alle anderen Gesetze des inneren Produktes gelten unverändert (s. Satz 2.1 (II), (III), (IV)). Mit der Definition % & n & √ |z| = z · z = ' |z i |2 i=1

des Betrages von z sind überdies die Regeln (V) bis (IX) in Satz 2.1 auch im Cn erfüllt (Beweis analog zum Rn ). Wir kommen auf den Raum Cn in Abschn. 2.4.2 kurz zurück. Wesentlich benötigen wir diesen Raum aber in der Eigenwerttheorie von Matrizen in Abschn. 3.

2.2

Lineare Gleichungssysteme, Gaußscher Algorithmus

Ein Gleichungssystem der Form a11 x1 +a12 x2 + . . . + a1n xn = b1 a21 x1 +a22 x2 + . . . + a2n xn = b2 .. .. .. . . . am1 x1 +am2 x2 + . . . + amn xn = bm

(2.25)

(aik , bi ∈ R) gegeben, xk ∈ R gesucht) heißt ein (reelles) lineares Gleichungssystem von m Gleichungen mit n Unbekannten. Sind alle bi = 0 (i = 1, . . . , m), so liegt ein homogenes lineares Gleichungssystem vor, andernfalls ein inhomogenes. Als Lösung des Gleichungssystems (2.25) bezeichnet man jeden Vektor x = [x1 , x2 , . . . , xn ]T aus Rn , dessen Koordinaten x1 , . . . , xn alle Gleichungen in (2.25) erfüllen. 6 C = Menge der komplexen Zahlen, s. Bd. Burg/Haf/Wille (Analysis) [27], Abschn. 2.5.

2.2 Lineare Gleichungssysteme, Gaußscher Algorithmus

87

Wir beschäftigen uns zunächst mit dem Fall m = n, der für die Praxis am wichtigsten ist. Man spricht hier von quadratischen linearen Gleichungssystemen.7 2.2.1

Lösung quadratischer Gleichungssysteme

Zur Lösung eines quadratischen linearen Gleichungssystems a11 x1 +a12 x2 + . . . + a1n xn = b1 a21 x1 +a22 x2 + . . . + a2n xn = b2 .. .. .. . . . an1 x1 +an2 x2 + . . . + ann xn = bn

(2.26)

von n Gleichungen mit n Unbekannten (aik , bi ∈ R gegeben, xk ∈ R gesucht) kann der Gaußsche Algorithmus8 , auch Subtraktions- oder Eliminationsverfahren genannt, verwendet werden. Der Grundgedanke ist einfach: Man multipliziert die Gleichungen mit konstanten Faktoren und subtrahiert sie dann so voneinander, daß möglichst viele Unbekannte xk dabei verschwinden, um, bei Fortführung dieses Prozesses, zu einer Gleichung mit nur einer Unbekannten zu gelangen. Diese Unbekannte wird berechnet und ihr Wert in die übrigen Gleichungen eingesetzt. Sukzessive ermittelt man aus diesen Gleichungen dann die übrigen Unbekannten. — Wir beschreiben diesen Prozeß genauer: Gaußscher Algorithmus: Zunächst reduziert man das System (2.26) zu einem Gleichungssystem von n − 1 Gleichungen mit n − 1 Unbekannten, und zwar auf folgende Weise: Erster Reduktionsschritt: Wir gehen davon aus, daß a11  = 0 ist. Multipliziert man nun die erste Gleichung in (2.26) rechts und links mit dem Faktor c21 := a21 /a11 und subtrahiert die Seiten der so entstandenen Gleichung von den entsprechenden Seiten der zweiten Gleichung, so entsteht eine Gleichung, in der x1 nicht mehr vorkommt. Auf die gleiche Weise verfährt man mit allen weiteren Gleichungen: Man multipliziert also als nächstes die erste Gleichung mit c31 := a31 /a11 und subtrahiert sie von der dritten Gleichung; wobei wiederum x1 herausfällt. Anschließend multipliziert man die erste Gleichung mit c41 := a41 /a11 , subtrahiert sie von der vierten Gleichung usw. Führt man diesen Prozeß bis zur n-ten Gleichung durch, so entsteht ein Gleichungssystem (2)

(2)

(2)

(2)

(2)

(2)

(2)

(2)

a22 x2 +a23 x3 + . . . + a2n xn = b2 a32 x2 +a33 x3 + . . . + a3n xn = b3 .. .. .. . . . (2)

(2.27)

(2)

(2) xn = bn(2) an2 x2 +an3 x3 + . . . + ann

7 Wer vorrangig an der praktischen Lösungsberechnung interessiert ist, findet alles Notwendige dazu in den Abschn. 2.2.1 bis 2.2.3 (bis Beisp. 2.3). Zum Verständnis wird nur der Begriff des Vektors aus Rn vorausgesetzt, s. Abschn. 2.1.1. 8 Für zwei- und dreireihige Systeme (n = 2 oder 3) ist die direkte Auflösung mit der Cramerschen Regel ebenfalls eine gute Methode (n = 2: Abschn. 1.1.7, (1.69), n = 3: Abschn. 1.2.7, (1.99), n ∈ N beliebig: Abschn. 3.4.6). Für n ≥ 4 ist aber in der Praxis der Gaußsche Algorithmus respektive ein iteratives Verfahren vorzuziehen.

88

2 Vektorräume beliebiger Dimensionen

dessen Koeffizienten sich auf folgende Art ergeben: (2)

aik = aik − ci1 a1k ,

(2)

bi

= bi − ci1 b1 ,

mit ci1 =

ai1 und i, k = 2,3, . . . , n. a11

Jede Lösung [x1 , . . . , xn ]T von (2.26) liefert offenbar eine Lösung [x2 , . . . , xn ]T von (2.27), während man umgekehrt jede Lösung [x2 , . . . , xn ]T von (2.27) zu einer Lösung von (2.26) erweitern kann, wenn man die x2 , . . . , xn in die erste Gleichung von (2.26) einsetzt und daraus x1 berechnet. Den Reduktionsschritt wendet man nun auf das System (2.27) abermals an. Das dann entstandene System reduziert man abermals usw. Allgemein geht man folgendermaßen vor: p-ter Reduktionsschritt. Es sei ( p)

( p)

( p)

a pp x p + . . . + a pn xn = b p .. .. .. . . . ( p)

( p)

(2.28)

( p)

anp x p + . . . + ann xn = bn ,

p 0

(2.37)

i,k= p

gilt.9 Anschaulich ausgedrückt bedeutet die Bedingung (2.37), daß in den auftretenden Systemen niemals alle Koeffizienten identisch verschwinden. Aus der Eigenschaft (2.37) läßt sich sowohl n 

( p)

|a pk | > 0

(2.38)

k= p

als auch n 

( p)

|ai p | > 0

(2.39)

i= p ( p)

folgern. Bei einem regulären Gleichungssystem kann daher im Fall a pp = 0 durch einen Zeilentausch der p-ten mit einer j-ten Zeile ( j > p) ein nicht verschwindendes Diagonalelement generiert werden, so daß der Gauß-Algorithmus fortgesetzt werden kann. Hierbei nimmt man Zeilenvertauschungen meistens so vor, daß ein betragsgrößter Koeffizient der ersten Spalte in die linke obere Ecke des zu behandelnden (reduzierten) Systems gelangt. Damit werden die Faktoren ci p , mit denen die erste Gleichung des betrachteten Systems multipliziert wird, betragsmäßig ≤ 1. Nach anschließender Subtraktion von den übrigen Gleichungen des Systems entsteht ein reduziertes System, in dem (normalerweise) die Unterschiede zwischen den Gleichungen nicht vom Anteil der ersten Gleichung des vorangehenden Systems »erdrückt« worden sind, so 9 Die Eigenschaft (2.37) bedeutet, daß die Matrix des Gleichungssystems regulär ist.

2.2 Lineare Gleichungssysteme, Gaußscher Algorithmus

93

daß das Weiterrechnen Erfolg verspricht. Dieses Verfahren heißt Gaußscher Algorithmus mit Spalten-Pivotierung.

Ausgangssystem

nach 1. Reduktion

c21 c31 c41

(1)

(1)

aik

bi

(1)

(1)

(2)

aik

(1) (2)

nach 2. Reduktion cik

(3)

aik

(2)

bi

nach 3. Reduktion

nach Berechnung der xi

(1) (2) (3) cik (4)

(1) (2) (3) (4)

(1) (2) (3) cik (4)

x1 x2 x3 x4

(1) (2) (3)

bi

Fig. 2.2: Speicherbelegung für n = 4

Zur ökonomischen Speicherbelegung im Computer verfährt man so, wie es Fig. 2.2 für den (1) (1) Fall n = 4 zeigt: Die ursprünglich vorhandenen Koeffizienten aik =: aik , bi =: bi , werden ( j) ( j) nach und nach von den cik und den reduzierten Größen aik , bi überschrieben. Zum Schluß speichert man die berechneten xn , xn−1 , . . . , x1 auf den Speicherplätzen ab, auf denen am Anfang die bi standen. Auf diese Weise kommt man mit minimalem Speicherplatzbedarf aus. Man benötigt nur die n 2 + n Speicherplätze für Koeffizienten aik und bi , sowie wenige zusätzliche Speicherplätze zur Organisation (Umspeichern, Festhalten eines Zeilenindex usw.). Wird analog eine Spaltenpivotierung derart durchgeführt, daß ein betragsgrößter Koeffizient der ersten Zeile des (reduzierten) Systems in die linke obere Ecke überführt wird, so spricht man von einer Zeilen-Pivotierung. Wird ein betragsmäßig größtes Element des (reduzierten) Systems durch eine Kombination von Zeilen- und Spaltentausch in die linke obere Ecke transformiert, so wird von einer vollständigen Pivotierung gesprochen. Mit dem in Fig. 2.3 dargestellten Gauß-Algorithmus mit Spaltenpivotierung erhalten wir für die Beispielsysteme (2.35) und (2.36) im Gegensatz zum vorherigen Verfahren, die gesuchten Lösungen x1 = x2 = 1 respektive x1 = 3 ,

x2 = 2 ,

x3 = 1 .

Neben der grundsätzlichen Durchführbarkeit des Gauß-Verfahrens für reguläre Systeme ergibt sich durch die Pivotierung auch aus Sicht der Rundungsfehlereinflüsse eine Stabilisierung der

94

2 Vektorräume beliebiger Dimensionen

% Gaußscher Algorithmus mit Spaltenpivotierung % function x = Gauss_Pivot(A,b) % % OUTPUT VARIABLES: % ----------------% x: Loesungsvektor % % INPUT VARIABLES: % ---------------% A: quadratische n * n Matrix. % b: rechte Seite. % n = size(b,1); x = zeros(n,1); % Reduktionsschritte zur Überführung in Dreiecksgestalt for p=1:n-1 % Spaltenpivotierung max = abs(A(p,p)); index = p; for j=p+1:n if(max < abs(A(j,p))) index = j; end; end; if(index > p) tmp = b(p); b(p) = b(index); b(index) = tmp; for j=p:n tmp = A(p,j); A(p,j) = A(index,j); A(index,j) = tmp; end; end; % Ende der Spaltenpivotierung for i=p+1:n c_ip = A(i,p) / A(p,p); b(i) = b(i) - c_ip * b(p); for k=p+1:n A(i,k) = A(i,k) - c_ip * A(p,k); end; end; end; % Rueckwärtselimination for i=n:-1:1 x(i) = b(i); if(i < n) for k=i+1:n x(i) = x(i) - A(i,k) * x(k); end; end; x(i) = x(i) / A(i,i); end; return;

Fig. 2.3: MATLAB-Implementierung des Gaußschen Algorithmus mit Pivotierung

2.2 Lineare Gleichungssysteme, Gaußscher Algorithmus

95

Methode. Zur Verdeutlichung dieser Auswirkungen betrachten wir das System εx1 + 2x2 = 1 x1 + x2 = 1 mit einem frei wählbaren Parameter ε ∈ R \ {2}. Die exakte Lösung des Systems lautet x1 =

1 , 2−ε

x2 =

1−ε . 2−ε

(2.40)

In der Tabelle 2.1 sind die, mit dem vorgestellten Algorithmus erzielten Ergebnisse für ε = 10−i mit i ∈ {1,2,10,12,13,15,16,20} dargestellt.

Tabelle 2.1: Gauß-Algorithmus mit und ohne Spalten-Pivotierung Gauß-Algorithmus ohne Pivotierung mit Pivotierung ε

x1

x2

x1

x1

10−1

0,5263 0,5025 0,5000 0,5000 0,4996 0,5551 0 0

0,4737 0,4975 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000

0,5263 0,5025 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000

0,4737 0,4975 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000

10−2 10−10 10−12 10−13 10−15 10−16 10−20

Während zunächst für ε = 10−i mit i = 1,2,10,12 beide Verfahren identische Resultate liefern, zeigt sich beim Algorithmus ohne Pivotierung ein zunehmend stärker werdender Rundungsfehlereinfluß bei kleiner werdendem Parameter ε, der für ε = 10−i mit i = 13,15,16 und 20 zu unbrauchbaren Ergebnissen führt, obwohl kein Verfahrensabbruch eintritt. Die SpaltenPivotierung liefert hier eine deutlich erkennbare Stabilisierung der Methode, so daß die im Grenzfall ε → 0 laut (2.40) vorliegende Lösung x1 = x2 = 12 erzielt wird. Eine mathematische Analyse der Rundungsfehler wird in [96] präsentiert.

Bemerkung: Eine formale Spezifizierung der Gleichungssysteme, für die der Gaußsche Algorithmus mit und evtl. sogar ohne Pivotierung bei jeweiliger Vernachlässigung von Rundungsfehlern die eindeutig bestimmte Lösung ermittelt, wird in Abschnitt 3.8.3 präsentiert.

96

2 Vektorräume beliebiger Dimensionen

Übung 2.4* Löse das folgende Gleichungssystem durch den Gaußschen Algorithmus mit Spaltenpivotierung: 261x2 + 1587x3 = −401 3078x1 − 0,049x2 − 3,956x3 = 2,647 0,126x1 − 1,981 · 106 x1 + 7,217 · 106 x2 + 0,221 · 106 x3 = 0,512 · 105 .

2.2.3

Singuläre lineare Gleichungssysteme

Es sei ein beliebiges quadratisches lineares Gleichungssystem n 

aik xk = bi ,

i = 1, . . . , n

(2.41)

k=1

vorgelegt, von dem wir zunächst nicht wissen, ob es regulär ist (d.h. ob es durch den Gaußschen Algorithmus in ein Dreieckssystem übergeht), oder ob es singulär ist (d.h. nicht regulär). Um das Gleichungssystem zu lösen wenden wir den Gaußschen Algorithmus an, wie er in Abschn. 2.2.1 beschrieben ist, d.h. mit Zeilen-und Spaltenvertauschungen, falls nötig. Hierbei können wir an Totalpivotierungen denken, bei der stets der absolut größte Koeffizient auf der linken Seite eines (reduzierten) Systems in die linke obere Ecke gebracht wird. Ist das System nicht regulär, so muß schließlich ein (reduziertes) Gleichungssystem entstehen, in dem alle Koeffizienten auf der linken Seite Null sind. Die Reduktion bricht bei diesem Gleichungssystem ab. Schreibt man die jeweils ersten Gleichungen aller bis dahin erhaltenen Gleichungssysteme untereinander und fügt das zuletzt erhaltene System, das links nur Nullen aufweist, hinzu, so ergibt sich a11 x1 + a12 x2 + . . . + a1 p x p + a1, p+1 x p+1 + . . . + a1n xn = b1 (2) (2) (2) (2) a22 x2 + . . . + a2 p x p + a2, p+1 x p+1 + . . . + a2n xn = b2 .. .. .. .. .. . . . . . ( p) ( p) ( p) ( p) a pp x p + a p, p+1 x p+1 + . . . + a p,n xn = b p 0 .. . 0 (2)

( p)

+

...

+ ... +

+

...

+ ... +

0 .. . 0

=

( p) b p+1

(2.42)

.. .

( p)

= bn

mit a11  = 0, a22  = 0, . . . , a pp  = 0, ( p < n). Wir wollen ein solchen System ein p-zeiliges Trapezsystem nennen (wobei dieser Name von den ersten p Zeilen herrührt). Dieses System besitzt, aus den Abschn. 2.2.1 genannten Gründen, die gleiche Lösungsmenge wie das Ausgangssystem (2.41). Man sieht sofort:

2.2 Lineare Gleichungssysteme, Gaußscher Algorithmus

97

Folgerung 2.4: ( p)

( p)

(a) Ist in (2.42) eins der b p+1 , . . . , bn unlösbar; ( p)

( p)

ungleich Null, so ist das Gleichungssystem ( p)

(b) gilt dagegen b p+1 = b p+2 = . . . = bn gen.

= 0, so gibt es unendlich viele Lösun-

Beweis: Beweis: (a) ist klar. Zu (b): Setzt man, zur besseren Unterscheidung x p+1 = t1 ,

x p+2 = t2 ,

... ,

xn = tn− p

(2.43)

und bringt man die zugehörigen Glieder in (2.42) auf die rechte Seite, so kann man (2.42) im Falle (b) wieder »von unten nach oben« auflösen. Die Lösungen hängen von den frei wählbaren Parametern t1 , . . . , tn− p ab.  Das skizzierte Auflösen des Systems (2.42) »von unten nach oben« führt auf ⎛ ⎞ n− p 1 ⎝ ( p)  ( p) x p = ( p) b p − a p, p+ j t j ⎠ a pp j=1 und für i = p − 1, p − 2, . . . , 1: ⎛ ⎞ n− p p  1 ⎝ (i)  (i) (i) xi = (i) bi − ai, p+ j t j − ai,k xk ⎠ . aii j=1 k=i+1

(2.44)

In der oberen Gleichung ist x p in Abhängigkeit von t1 , . . . , tn− p gegeben. Die untere Gleichung wird nun in der Reihenfolge i = p − 1, p − 2, . . . , 1 ausgewertet, wobei man jeweils rechts alle vorher berechneten Ausdrücke für xi+1 , xi+2 , . . ., x p einsetzt. So entstehen Formeln für die Lösungszahlen xi , bei denen die rechten Seiten nur noch von den Parametern t1 , . . . , tn− p abhängen. Sie haben die Form:

xi = u i +

n− p

vi j t j ,

i = 1, . . . , n .

(2.45)

j=1

Dabei wurden auch die Gleichungen (2.43) mit eingeordnet, denn sie haben die Gestalt (2.45), wenn man den Koeffizienten von t j gleich 1 setzt und die übrigen Null, also v p+s, j = δs j (Kronecker-Symbol).

98

2 Vektorräume beliebiger Dimensionen

Beispiel 2.3: Es soll die Lösungsmenge L des folgenden Gleichungssystems berechnet werden 8x1 + 2x2 − 3x3 + 5x4 = 1 3x1 − 7x2 + 5x3 − x4 = −2 14x1 − 12x2 + 7x3 + 3x4 = −3 −5x1 − 9x2 + 8x3 − 6x4 = −3 .

(2.46)

Der Gaußsche Algorithmus mit Spaltenpivotierung ergibt nach 2 Reduktionen das Trapezsystem 14x1 − 12x2 + 7x3 + 3x4 − 13,2857x2 + 10,5000x3 − 4,2985x4 0 0

= −3 = −4,0714 = 0 = 0.

(2.47)

Das Gleichungssystem ist also singulär — und lösbar! Man setzt nun x3 = t1 , x4 = t2 , löst dann die zweite Gleichung in (2.47) nach x2 auf, setzt den gefundenen Ausdruck für x2 in die erste Gleichung von (2.47) ein und löst nach x1 auf. Damit erhält man die Lösungsgesamtheit in der Form ⎫ . x1 = 0,04839 − 0,17742t1 + 0,53226t2 ⎪ ⎪ ⎪ . x2 = 0,30645 − 0,79032t1 + 0,37097t2 ⎬ (t1 , t2 ∈ R) . (2.48) ⎪ x3 = t1 ⎪ ⎪ ⎭ x4 = t2 Die Lösungsmenge L besteht also aus allen Vektoren x = [x1 , x2 , x3 , x4 ]T von der Form (2.48), wobei die Parameter t1 , t2 als beliebige reelle Zahlen gewählt werden dürfen. (Die Dezimalzah. len sind gerundet, was durch = statt = symbolisiert wird.) Algebraische Struktur der Lösungsmenge im singulären Fall Die Gleichung (2.45) erhält mit ⎡ ⎤ ⎡ ⎤ u1 x1 ⎢ .. ⎥ ⎢ .. ⎥ x=⎣.⎦, u=⎣ . ⎦, xn

⎤ v1 j ⎢ ⎥ v j = ⎣ ... ⎦ ,

un



j = 1, . . . , n − p ,

vn j

die vektorielle Gestalt x =u+

n− p

v jtj ,

(t j ∈ R) .

(2.49)

j=1

Die v j sind dabei linear unabhängig, wegen v p+s, j = δs j für s, j = 1, . . . , n − p (denn läßt man die ersten p Koordinaten weg, so werden die v j zu Koordinateneinheitsvektoren).

2.2 Lineare Gleichungssysteme, Gaußscher Algorithmus

99

Gleichung (2.49) ist die Parameterdarstellung einer (n − p)-dimensionalen Mannigfaltigkeit. Also: Satz 2.8: (a) Ist das lineare Gleichungssystem n 

aik xk = bi

(i = 1, . . . , n)

k=1

singulär, so ist die Lösungsmenge entweder leer oder eine (n − p)-dimensionale lineare Mannigfaltigkeit ( p < n wie in (2.42)). (b) Ist die rechte Seite dabei Null (bi = 0 für alle i = 1, . . . , n), so ist die Lösungsmenge L ein (n − p)-dimensionaler Unterraum (d.h. u = 0 in (2.49)). Beweis: (a) ist klar. Zu (b): Im Fall b j = 0 (i = 1, . . . , n) ist x 0 = 0 eine Lösung. Folgerung 2.1 in Abschn. 2.1.3 ergibt, daß L − x 0 = L − 0 = L ein (n − p)-dimensionaler Unterraum ist.  Bemerkung: Satz 2.8 macht klar, daß der Gaußsche Algorithmus, unabhängig von der speziellen Wahl der Zeilen- und Spaltenvertauschungen, stets auf ein Trapezsystem mit der gleichen Zeilenzahl p führt. Denn die Dimension n − p der Lösungsmenge — und damit die Zahl p — ist sicherlich unabhängig vom Berechnungsverfahren für die Lösungen. Beispiel 2.3: (Fortsetzung) Mit den Vektoren ⎡ ⎤ ⎡ ⎤ 0,04839 −0,17742 ⎥ . ⎢0,30645⎥ . ⎢ ⎥ ⎢−0,79032⎥ , u=⎢ ⎣ 0 ⎦ , v1 = ⎣ ⎦ 1 0 0



⎤ 0,53226 . ⎢0,37097⎥ ⎥ v2 = ⎢ ⎣ 0 ⎦ 1

gewinnt man die Aussage: Die Lösungsmenge L des Gleichungssystems (2.46) besteht aus allen Vektoren der Form x = u + t 1 v 1 + t2 v 2

(t1 , t2 beliebig reell) .

Veranschaulichung: Im Fall eines dreireihigen quadratischen linearen Gleichungssystems läßt sich die Lösungsstruktur gut anschaulich machen. Es sei das folgende Gleichungssystem gegeben: aˆ 1 · x T = b1

a11 x1 + a12 x2 + a13 x3 = b1 a21 x1 + a22 x2 + a23 x3 = b2 a31 x1 + a32 x2 + a33 x3 = b3

kurz

aˆ 2 · x T = b2 aˆ 3 · x T = b3

mit den Zeilenvektoren aˆ i = [ai1 , ai2 , ai3 ], x T = [x1 , x2 , x3 ].10 Die Gleichungen rechts können 10 Mit Zeilenvektoren rechnet man analog wie mit Spaltenvektoren.

100

2 Vektorräume beliebiger Dimensionen

als Hessesche Normalformen dreier Ebenen E 1 , E 2 , E 3 aufgefaßt werden, da wir uns die Gleichungen durch Multiplikation mit Faktoren  = 0 so umgewandelt denken können, daß | aˆ i | = 1 ist, für alle i = 1,2,3.

Fig. 2.4: Zur Lösbarkeit linearer Gleichungssysteme

Die gemeinsamen Punkte aller drei Ebenen E 1 , E 2 , E 3 bilden die Lösungen. Figur 2.4 zeigt fünf charakteristische Möglichkeiten: Im Falle a) haben wir eindeutige Lösbarkeit, da E 1 ∩ E 2 ∩ E 3 aus einem Punkt besteht. b) und c) zeigen unlösbare Fälle. E 1 ∩ E 2 ∩ E 3 = ∅, d), e) zeigen Fälle mit unendlich vielen Lösungen: d) Gerade, e) Ebene. Übung 2.5: (a) Gib die Lösungsmenge des folgenden Gleichungssystems an: 3x1 + 4x2 − 5x3 + x4 = 1 7x1 − 2x2 + x3 − 2x4 = −2 x1 − 10x2 + 11x3 − 4x4 = −4 −4x1 + 6x2 − 6x3 − 3x4 = −3 . (b) Gib die Lösungsmenge für den Fall an, daß die −3 auf der rechten Seite unten in −2 verwandelt wird. (c) Streiche aus dem Gleichungssystem in (a) die letzte Zeile heraus, wie auch die Spalte mit x4 . Es entsteht ein dreireihiges quadratische Gleichungssystem. Skizziere die drei Ebenen, die durch die Gleichungen gegeben sind, in einem räumlichen Koordinatensystem (man denke sich einen genügend großen »gläsernen« achsenparallelen Quader gezeichnet und veranschauliche die Ebenen durch ihre Schnittlinien mit den Quaderwänden). Wie liegt hier die Lösungsmenge?

2.2 Lineare Gleichungssysteme, Gaußscher Algorithmus

2.2.4

101

Allgemeiner Satz über die Lösbarkeit linearer quadratischer Gleichungssysteme

Das Gleichungssystem (2.26) nennen wir ein quadratisches System, da ebenso viele Zeilen wie Unbekannte vorkommen. Aus den Spalten des Systems bildet man die Spaltenvektoren: ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ b1 a11 a12 a1n ⎢ .. ⎥ ⎢ .. ⎥ ⎢ .. ⎥ ⎢ .. ⎥ a1 = ⎣ . ⎦ , a2 = ⎣ . ⎦ , . . . , an = ⎣ . ⎦ , b = ⎣ . ⎦ . (2.50) an1

an2

ann

bn

Damit erhält unser Gleichungssystem die knappere vektorielle Gestalt x1 a1 + x2 a2 + . . . + xn an = b (ak , b ∈ Rn ) .

(2.51)

Mit den Zeilen des Systems geht man entsprechend vor: Man kann sie zu Zeilenvektoren zusammenfassen: aˆ 1 = [a11 , a12 , . . . , a1n ] .. . aˆ n = [an1 , an2 , . . . , ann ] .

(2.52)

Mit solchen Zeilenvektoren rechnet man völlig analog wie mit Spaltenvektoren: Man kann sie addieren, subtrahieren, mit λ ∈ R multiplizieren, innere Produkte bilden usw. Führen wir noch den Zeilenvektor x T = [x1 , . . . , xn ] ein, so läßt sich unser Gleichungssystem so beschreiben aˆ i · x T = bi ,

i = 1, . . . , n .

(2.53)

Voilà! — Damit gilt der folgende zusammenfassende Satz Satz 2.9: Bei einem quadratischen linearen Gleichungssystem n 

aik xk = bi ,

i = 1, . . . , n

(2.54)

k=1

tritt genau einer der folgenden Fälle ein: 1. Fall: (a) Das Gleichungssystem ist regulär, d.h. der Gaußsche Algorithmus lie(2) (n) fert ein Dreieckssystem, in dem alle Diagonalkoeffizienten a11 , a22 , . . . , ann ungleich Null sind. Dies bedeutet, daß das Gleichungssystem für jede rechte Seite b ∈ Rn genau eine Lösung x = [x1 , . . . , xn ]T ∈ Rn hat.

102

2 Vektorräume beliebiger Dimensionen

(b) Das Gleichungssystem ist genau dann regulär, wenn die Spaltenvektoren a1 , . . . , an linear unabhängig sind. Dies ist genau dann der Fall, wenn die Zeilenvektoren linear unabhängig sind. 2. Fall: (c) Das Gleichungssystem ist singulär, d.h. der Gaußsche Algorithmus liefert ein p-zeiliges Trapezsystem, mit p < n. Das bedeutet: Es gibt entweder keine ( p) ( p) Lösung (b p+1 , . . . , bn nicht alle Null), oder es gibt unendlich viele Lösungen ( p)

( p)

(im Falle b p+1 = . . . = bn = 0). Im letzteren Fall ist die Lösungsmenge eine lineare Mannigfaltigkeit der Dimension n − p im Raum Rn . (d) Das Gleichungssystem ist genau dann singulär (mit p-zeiligem Trapezsystem), wenn die Spaltenvektoren a1 , . . . , an linear abhängig sind. In diesem Fall ist p die maximale Anzahl linear unabhängiger Vektoren unter den a1 , . . . , an . Für Zeilenvektoren gilt die entsprechende Aussage. Beweis: 11 Die Aussagen (a), (c) sind durch die vorangehenden Abschnitte klar. Es müssen nur noch (b) und (d) bewiesen werden. Beweis von (d): Im singulären Fall verwandelt der Gaußsche Algorithmus das homogene Gleichungssystem n 

xk ak = 0 ,

i = 1, . . . , n

(2.55)

k=1

in ein p-zeiliges Trapezsystem. Wir denken uns nun alle vorgenommenen Zeilen- und Spaltenvertauschungen schon vor Beginn der Rechnung ausgeführt, und bezeichnen das entstandene System wieder wie in (2.55). Dann liefert der Gaußsche Algorithmus ein p-zeiliges Trapezsystem auch ohne Vertauschungen von Zeilen und Spalten. Von dieser Situation gehen wir aus! (d1 ) Die Lösungsmenge von (2.55) wird nach Satz 2.8 (b) im vorigen Abschnitt durch x=

n− p

v jtj

(t j = x p+ j )

(2.56)

j=1

beschrieben. Wählt man alle t j = x p+ j = 0, so verkürzt sich (2.55) zu

p $

xk ak k=1 a1 , . . . , a p

= 0. Nach

sind linear (2.56) ist dann aber x = 0, also auch x1 = . . . = x p = 0, d.h. die unabhängig. Im Fall t j = x p+ j = −1 und ti = 0 für alle i  = j (i ∈ {1, . . . , n − p}) wird (2.55) zu p 

xk ak − a p+ j = 0 ,

k=1

11 Kann vom anwendungsorientierten Leser überschlagen werden.

2.2 Lineare Gleichungssysteme, Gaußscher Algorithmus

103

wobei die xk aus (2.56) gewonnen werden. D.h.: a p+ j ist eine Linearkombination der a1 , . . . , a p (für jedes j ∈ {1, . . . , n + p}). Folglich liegen alle a p+ j in dem von a1 , . . . , a p aufgespannten Unterraum der Dimension p. Folglich ist p die maximale Anzahl linear unabhängiger Vektoren unter den Spaltenvektoren a1 , . . . , a p . (d2 ) Beschreibt man das Gleichungssystem (2.55) mit den Zeilenvektoren aˆ 1 , . . . , aˆ n , so erhält es die Gestalt aˆ i · x T = 0 ,

x T = [x1 , . . . , xn ] .

(2.57)

Alle Lösungen x T stehen also rechtwinklig auf den aˆ i , und damit auf jedem Vektor des von aˆ 1 , . . . , aˆ n aufgespannten Unterraumes U ⊂ Rn . Kurz: Der Lösungsraum L ist das orthogonale Komplement von U . Mit dim L = n − p und der Gleichung dim U + dim L = n (s. Folg. 2.3, Abschn. 2.1.4) folgt dim U = p. Da die aˆ 1 , . . . , aˆ n den Raum U aufspannen, ist die maximale Anzahl linear unabhängiger unter ihnen gleich dim U = p. Beweis von (b): Ist das Gleichungssystem (2.54) regulär, so hat es nach (a) für jede rechte Seite n $ genau eine Lösung, also hat ai xk = 0 (i = 1, . . . , n) nur die Lösung x1 = x2 = . . . = i=1

xn = 0, d.h. die a1 , . . . , an sind linear unabhängig. — Setzen wir umgekehrt die a1 , . . . , an als n $ linear unabhängig voraus, so hat ai xk = 0 nur die Lösung x1 = . . . = xn = 0. Damit ist n $

i=1

ai xk = 0 ein reguläres Gleichungssystem, denn im singulären Fall läge ja keine eindeutige

i=1

Lösbarkeit vor. Der Gaußsche Algorithmus erzeugt also ein Dreieckssystem, d.h. auch (2.54) ist regulär. Die lineare Unabhängigkeit der Zeilenvektoren aˆ i folgt im regulären Fall wie oben in (d2 ). Man hat p = n zu setzen. Da die aik ein quadratisches Schema bilden, folgt umgekehrt aus Symmetriegründen aus der linearen Unabhängigkeit der Zeilenvektoren auch die der Spaltenvektoren.  Folgerung 2.5: Ist ein quadratisches lineares Gleichungssystem n 

xk ak = b (ak , b ∈ Rn )

k=1

für eine rechte Seite b eindeutig lösbar, so ist es für jede beliebige rechte Seite eindeutig lösbar. Beweis: Eindeutige Lösbarkeit für eine rechte Seite bedeutet, daß der Gauß-Algorithmus ein Dreieckssystem erzeugt. Für jede andere rechte Seite entsteht aber links vom Gleichheitszeichen die gleiche Dreiecksstruktur, d.h. es liegt bei jeder linken Seite eindeutige Lösbarkeit vor. 

104

2 Vektorräume beliebiger Dimensionen

Es ist klar, daß diese schöne Eigenschaft für beliebige Gleichungen f (x) = b nicht allgemein gilt. Sie ist eine Besonderheit linearer quadratischer Gleichungssysteme. Sie ist die Kernaussage der sogenannten Fredholmschen Alternative: Entweder liegt für alle rechten Seiten eindeutige Lösbarkeit vor, oder für keine! 2.2.5

Rechteckige Systeme, Rangkriterium

Zur praktischen Lösung. Gleichungssysteme der Form a11 x1 + a12 x2 + . . . + a1n xn = b1 a21 x1 + a22 x2 + . . . + a2n xn = b2 .. .. .. .. . . . . am1 x1 + am2 x2 + . . . + amn xn = bm

(2.58)

mit n  = m, nennen wir rechteckige lineare Gleichungssysteme. Durch Ergänzen von Nullzeilen oder Nullspalten kann man sie stets zu quadratischen Systemen erweitern, womit sie auf den behandelten Fall zurückgeführt sind. Man kann aber auch den Gaußschen Algorithmus völlig analog zum Vorherigen direkt auf Rechtecksysteme anwenden. Oft liegt dabei keine eindeutige Lösbarkeit vor. Man gelangt durch die Rekursionsschritte i.a. zu einem Trapezsystem mit unterschiedlicher Zeilen- und Spaltenzahl auf der linken Seite. Dann geht man so vor, wie in Abschn. 2.2.3 erläutert. Entsteht jedoch ein Dreieckssystem mit noch folgenden Nullzeilen (nur im Fall m > n möglich), so liegt wieder eindeutige Lösbarkeit vor, und wir berechnen die Lösungen wie in Abschn. 2.2.1. Rangkriterium, Lösungsstruktur.12 Mit den Spaltenvektoren ⎤ ⎡ ⎤ ⎡ b1 a1k ⎢ .. ⎥ ⎢ .. ⎥ ak = ⎣ . ⎦ , k = 1, . . . , n und b = ⎣ . ⎦ amk

bm

aus Rm bekommt das Gleichungssystem (2.58) die Form n 

xk ak = b (ak , b ∈ Rm ) .

(2.59)

k=1

Dabei nehmen wir n, m ∈ N als beliebig an, also gleich oder ungleich. Das Gleichungssystem heißt homogen, wenn b = 0 ist, andernfalls inhomogen.

12 Kann vom praxisorientierten Leser beim ersten Lesen übersprungen werden.

2.2 Lineare Gleichungssysteme, Gaußscher Algorithmus

105

Definition 2.7: Es seien c1 , . . . , ck beliebige Vektoren aus Rn . Als Rang der Menge {c1 , . . . , ck }, Rang{c1 , . . . , ck } , bezeichnet man die maximale Anzahl linear unabhängiger Vektoren unter ihnen. Damit gilt für beliebige lineare Gleichungssysteme, rechteckig oder quadratisch, der Satz 2.10: (Rangkriterium) Das lineare Gleichungssystem (2.59) ist genau dann lösbar, wenn folgendes gilt: Rang{a1 , . . . , an } = Rang{a1 , . . . , an , b} .

(2.60)

Das Gleichungssystem ist genau dann eindeutig lösbar, wenn die Ränge in (2.60) gleich n sind, also gleich der Anzahl der Unbekannten. Beweis: Lösbarkeit von (2.59) bedeutet, daß b als Linearkombination der a1 , . . . , an geschrieben werden kann, d.h., daß b in dem von a1 , . . . , an aufgespannten Unterraum U liegt, d.h.: {a1 , . . . , an } und {a1 , . . . , an , b} spannen den gleichen Unterraum auf; d.h.: Beide Mengen {a1 , . . . , an } und {a1 , . . . , an , b} haben gleiche Maximalzahl linear unabhängiger Vektoren; d.h.: Es gilt (2.60). — Die Eindeutigkeitsaussage folgt aus Satz 2.3 (b) in Abschn. 2.1.3.  Satz 2.11: (Struktur der Lösungsmenge) Für das lineare Gleichungssystem n 

xk ak = b (ak , b ∈ Rm )

(2.61)

k=1

gelte: p := Rang{a1 , . . . , an } = Rang{a1 , . . . , an , b} (d.h. das Rangkriterium ist erfüllt). Dann folgt (a) Die Lösungsmenge ist eine (n − p)-dimensionale lineare Mannigfaltigkeit im Rn . (b) Die Lösungsmenge des zu (2.61) gehörenden homogenen linearen Gleichungssystems n  k=1

xk ak = 0

(2.62)

106

2 Vektorräume beliebiger Dimensionen

ist ein (n − p)-dimensionaler Unterraum von Rn . (c) Ist x 0 ∈ Rn ein beliebiger, aber festgewählter Lösungsvektor des inhomogenen linearen Gleichungssystems (2.61), so besteht die Lösungsmenge dieses Systems aus allen Vektoren der Form x = x0 + xh ,

wobei x h Lösung des homogenen Systems (2.62) ist.

Beweis: (a) folgt unmittelbar aus Satz 2.9 (b), Abschn. 2.2.4, wenn man (2.61) im Fall m = n durch Nullzeilen oder Nullspalten zu einem quadratischen System ergänzt. (b) ergibt sich entsprechend aus Satz 2.8 (b) in Abschn. 2.2.3. Zu (c): Alle x = x 0 + x h sind offensichtlich Lösungen von (2.61) (einsetzen!). Ist umgekehrt x 1 eine beliebige Lösung von (2.61), so ist x 1 − x 0 =: x h zweifellos Lösung von (2.62), woraus x 1 = x 0 + x h folgt, d.h. x 1 hat die behauptete Form.  Bemerkung: Die Sätze 2.9 und 2.10 haben hauptsächlich theoretische Bedeutung (als Beweishilfsmittel für weitere Sätze). Praktisch wird die Frage nach der Lösbarkeit und der Berechnung durch den Gaußschen Algorithmus angegangen. (Wir bemerken, daß im Fall sehr großer n = m auch andere — sogenannte iterative — Verfahren ins Bild kommen, s. Abschn. 3.8.4. Als »sehr groß« ist dabei etwa n = m ≥ 100 anzusehen). Übung 2.6* Gib die Lösungsmengen der folgenden beiden Systeme an: 3x1 + 5x2 − 7x3 + x4 = 0 (a) 8x1 − 2x2 + x3 − 3x4 = 1

2.3

9x1 − 8x2 = 1 (b) 5x1 + 2x2 = 7 . x1 + 12x2 = 13

Algebraische Strukturen: Gruppen und Körper

Es werden zwei algebraische Strukturen — Gruppen und Körper — erläutert. Sie bilden das algebraische Fundament für die spätere allgemeine Vektorraumtheorie. Da unmittelbare Anwendungen im Ingenieurbereich jedoch selten sind, mag der anwendungsorientierte Leser den Abschnitt beim ersten Lesen überspringen und später bei Bedarf hier nachschlagen. 2.3.1

Einführung: Beispiel einer Gruppe

Wir beginnen mit einer Spielerei: Ein Plättchen von der Form eines gleichseitigen Dreiecks liegt auf dem Tisch. Seine Ecken sind mit 1, 2, 3 markiert. Die Lage des Dreiecks ist durch einen gezeichneten Umriß auf dem Tisch vermerkt, wobei die Ecken des Umrisses mit Œ, , Ž gekennzeichnet sind (s. Fig. 2.5).

2.3 Algebraische Strukturen: Gruppen und Körper

107

Wir fragen nun nach allen Bewegungen des Plättchens, nach deren Ausführung es wieder exakt auf dem Umriß liegt. Auch Umdrehen ist erlaubt, so daß die Unterseite des Plättchens nach oben kommt. Alle diese Bewegungen heißen Kongruenzabbildungen des gleichseitigen Dreiecks. Sie werden nach ihren Endlagen unterschieden.

Fig. 2.5: Plättchen in Form eines gleichseitigen Dreiecks.

Fig. 2.6: Kongruenzabbildungen des gleichseitigen Dreiecks.

Dem Leser fallen sicher die folgenden fünf Bewegungen ein (Fig. 2.6): D

= Drehung um 120◦ im Uhrzeigersinn13

D = Drehung um 120◦ gegen den Uhrzeigersinn W1 = Spiegelung an der (tischfesten) Seitenhalbierenden s1 W2 = Spiegelung an der (tischfesten) Seitenhalbierenden s2 W3 = Spiegelung an der (tischfesten) Seitenhalbierenden s3 (W von »Wenden«). Der Vollständigkeit halber zählen wir noch die »triviale Bewegung« dazu: I = Identität, d.h. die Lage bleibt unverändert. Mehr als diese sechs Kongruenzabbildungen des Dreiecks gibt es sicherlich nicht! (Warum?)

13 eine Achse durch den Dreiecksmittelpunkt, die senkrecht auf dem Dreieck steht.

108

2 Vektorräume beliebiger Dimensionen

Wir beschreiben die Bewegungen des Dreiecks kürzer durch:       1 2 3 1 2 3 1 2 3 I = , D= , D= , 1 2 3 3 1 2 2 3 1       1 2 3 1 2 3 1 2 3 W1 = , W2 = , W3 = . 1 3 2 3 2 1 2 1 3

(2.63)

Was bedeutet dies? — Nun, Hier wird angegeben, wie die Ecken des Dreiecks  ganz einfach:  1 2 3 bewegt werden! In D = wird z.B. ausgedrückt, daß durch diese Drehung die Ecke 3 1 2 1 des Dreiecks in Ecke Ž des Umrisses überführt wird, ferner Ecke 2 in Ecke Œ des Umrisses usw. Man beschreibt dies auch so: D(1) = 3 ,

D(2) = 1 ,

D(3) = 2 ,

D(1) = 2

usw.

D.h.: Die Kongruenzabbildungen in (2.63) werden als Funktionen aufgefaßt, die die Menge N3 := {1,2,3} umkehrbar eindeutig auf sich abbilden. Da in den unteren Zeilen der Schemata in (2.63) gerade die Permutationen der Zahlen 1,2,3 stehen (d.h. die verschiedenen Reihenfolgen dieser Zahlen), identifiziert man die Kongruenzabbildungen I , D, D, W1 , W2 , W3 auch mit diesen Permutationen. — So weit, so gut! — Jetzt führen wir zwei unserer Kongruenzabbildungen nacheinander aus. Es muß wieder eine der sechs Kongruenzabbildungen entstehen, denn andere gibt es nicht. Wird z.B. zuerst die Drehung D ausgeführt und dann die Spiegelung W1 , so ergibt sich insgesamt die Spiegelung W3 (wie man mit einem ausgeschnittenen Papierdreieck schnell überprüft). Wir beschreiben dies durch W 3 = W 1 ∗ D1 , gesprochen: »W1 nach D« oder »W1 verknüpft mit D«, oder »W1 mal D«. W1 ∗ D nennt man das Produkt aus W1 und D und bezeichnet die Verknüpfung ∗ als Multiplikation. Tabelle 2.2: Multiplikationstabelle der Kongruenzabbildungen des gleichseitigen Dreiecks. ∗

I

D

D

W1

W2

W3

I D D W1 W2 W3

I D D W1 W2 W3

D D I W3 W1 W2

D I D W2 W3 W1

W1 W2 W3 I D D

W2 W3 W1 D I D

W3 W1 W2 D D I

Sämtliche möglichen Produkte zweier Kongruenzabbildungen des gleichseitigen Dreiecks sind in obenstehender Multiplikationstabelle verzeichnet (s. Tab. 2.2). Sind A, B, H drei von unseren Kongruenzabbildungen für die H = A ∗ B gilt, so folgt für jede Ecknummer x des Dreiecks H (x) = A(B(x)). Man sieht dies ein, wenn man den Weg einer Ecke dabei verfolgt (überprüfe dies mit W3 = W1 ∗ D). Ersetzt man H durch A ∗ B in der letzten

2.3 Algebraische Strukturen: Gruppen und Körper

109

Gleichung, so folgt (A ∗ B)(x) = A(B(x)) .

(2.64)

für alle Ecknummern x. Für je drei beliebige Kongruenzabbildungen A, B, C unseres Dreiecks folgern wir damit (A ∗ B) ∗ C = A ∗ (B ∗ C) .

(I)

Denn für alle Ecken x gilt wegen (2.64) ((A ∗ B) ∗ C)(x) = (A ∗ B)(C(x)) = A(B(C(x))) = A((B ∗ C)(x)) = (A ∗ (B ∗ C))(x) . Für jede beliebige Kongruenzabbildung A des gleichseitigen Dreiecks gilt ferner I ∗ A = A∗ I = A,

(II)

und

(III) Es gibt zu A eine Kongruenzabbildung X des Dreiecks mit A∗ X = I = X ∗ A. Man bezeichnet X durch A−1 und nennt es Inverses zu A. Man beachte, daß A ∗ B = B ∗ A nicht allgemein gilt, z.B. W2 ∗ W1 = D, W1 ∗ W2 = D. Eine Menge mit einer Verknüpfung, in der die drei Gesetze (I), (II), (III) gelten, nennt man eine Gruppe. Wir haben es also hier mit der Gruppe der Kongruenzabbildungen eines gleichseitigen Dreiecks zu tun. Im Folgenden wird der Gruppenbegriff allgemein gefaßt. Er ist der wichtigste Grundbegriff der modernen Algebra. Übung 2.7: Beschreibe die Gruppe der Kongruenzabbildungen eines Rechtecks (es soll sich um ein »echtes« Rechteck dabei handeln, also kein Quadrat). Anmerkung dazu: Nicht alle Permutationen der Ecken entsprechen Kongruenzabbildungen des Rechtecks, sondern nur einige. Die entstehende Gruppe heißt die Kleinsche14 Vierergruppe.

2.3.2

Gruppen

Definition 2.8: Eine Gruppe (G, ∗) besteht aus einer Menge G und einer Verknüpfung15 ∗, die jedem Paar (x, y) von Elementen x, y ∈ G genau ein Element x ∗ y ∈ G zuordnet, wobei 14 Felix Christian Klein (1849 – 1925), deutscher Mathematiker.

110

2 Vektorräume beliebiger Dimensionen

die folgenden drei Gesetze erfüllt sind: (I)

Für alle x, y, z ∈ G gilt

(Assoziativgesetz)

(x ∗ y) ∗ z = x ∗ (y ∗ z) . (II)

Es gibt ein Element e ∈ G mit

(neutrales Element)

x ∗e = x =e∗x für alle x ∈ G. e heißt neutrales Element in G. (III)

Zu jedem Element x ∈ G gibt es ein Element y ∈ G mit

(Inverses)

x∗y =e= y∗x . y heißt Inverses zu x, symbolisiert durch x −1 .

Fig. 2.7: Zu Übung 2.7, Kleinsche Vierergruppe (mit Klein)

Neutrales Element e und Inverses von x sind eindeutig bestimmt, denn würde auch e der Bedingung (II) genügen so folgte e = e ∗ e = e , und wären y und y Inverse von x, so erhielte man y = e ∗ y = (y ∗ x) ∗ y = y ∗ (x ∗ y) = y ∗ e = y . Wegen (I) schreibt man auch x ∗ y ∗ z statt (x ∗ y) ∗ z, da es ja gleichgültig ist, wie man klammert. Entsprechend x ∗ y ∗ z ∗ w usw. Definition 2.9: Gilt in einer Gruppe (G, ∗) zusätzlich (IV)

x∗y = y∗x

für alle x, y ∈ G,

(Kommutativgesetz)

so liegt eine kommutative Gruppe vor, auch abelsche16 Gruppe genannt. 15 Unter einer (binären) Verknüpfung aus einer Menge M verstehen wir eine beliebige Vorschrift, die jedem Paar (x, y) mit x, y ∈ M genau ein Element aus M zuordnet.

2.3 Algebraische Strukturen: Gruppen und Körper

111

Statt ∗ werden auch andere Symbole verwandt, oder ∗ wird ganz weggelassen. Dies ist in der Algebra üblich: Man schreibt einfach x y statt x ∗ y und spricht von multiplikativer Schreibweise bzw. multiplikativer Gruppe G. Bei abelschen Gruppen schreibt man häufig + statt ∗, wobei das neutrale Element mit 0 bezeichnet wird, und das Inverse zu x ∈ G mit −x. Man spricht von additiver Schreibweise bzw. additiver Gruppe. Die gerahmten Gleichungen in (I), (II), (III), (IV) bekommen dann die Form (x + y) + z = x + (y + z) , x + (−x) = 0 = (−x) + x ,

x +0= x =0+x, x+y = y+x.

(2.65)

Die Subtraktion in einer additiven abelschen Gruppe wird folgendermaßen definiert: x − y := x + (−y) . Eine Gruppe (G, ∗) heißt endlich wenn G eine endliche Menge ist. Die Anzahl der Elemente von G heißt die Ordnung der Gruppe (G, ∗). Eine nichtendliche Gruppe heißt unendliche Gruppe. Statt von der Gruppe (G, ∗) oder (G, ·) oder (G, +) spricht man auch einfach von der Gruppe G, wenn aus dem Zusammenhang klar ist, mit welcher Verknüpfung gearbeitet wird. Dadurch wird sprachliche Überladung vermieden. Beispiele für Gruppen Beispiel 2.4: Die Menge Z (der ganzen Zahlen), Q (der rationalen Zahlen), R (der reellen Zahlen) und C (der komplexen Zahlen), sowie Rn und Cn bilden additive abelsche Gruppen: (Z, +) ,

(Q, +) ,

(R, +) ,

(C, +) ,

(Rn , +) ,

(Cn , +) .

Beispiel 2.5: Streicht man aus Q, R und C jeweils die 0 heraus, so liefern die entstehenden Mengen Q , R , C multiplikative abelsche Gruppen (Q , ·) ,

(R , ·) ,

(C , ·) .

Beispiel 2.6: G = {−1,1} bildet eine multiplikative abelsche Gruppe aus 2 Elementen. Beispiel 2.7: Die Menge G der komplexen Zahlen mit Absolutbetrag 1 stellt eine multiplikative abelsche Gruppe dar.

16 Nach dem norwegischen Mathematiker Niels Henrik Abel (1802 – 1829).

112

2 Vektorräume beliebiger Dimensionen

Beispiel 2.8: Die Menge aller Kongruenzabbildungen einer ebenen oder räumlichen Figur auf sich selbst ergibt eine Gruppe bezüglich der Hintereinanderausführung der Kongruenzabbildungen. Gruppen dieser Art sind meistens nicht kommutativ (s. Beispiel in Abschn. 2.3.1). Beispiel 2.9: (Gruppe der bijektiven Abbildungen einer Menge auf sich) Wir haben es hier mit dem Paradebeispiel für Gruppen zu tun. Zunächst sei kurz wiederholt17 : Eine Abbildung f : M → N heißt injektiv (eineindeutig), wenn aus x1 , x2 ∈ M mit x1  = x2 folgt: f (x1 )  = f (x2 ), kurz: »Verschiedene Urbilder haben verschiedene Bilder«. f : M → N heißt surjektiv (Abbildung von M auf N ), wenn zu jedem y ∈ N ein x ∈ M existiert mit f (x) = y, m.a.W.: »Der Bildbereich N wird durch die Werte f (x) ausgeschöpft.« (d.h f (M) = N ). f : M → N heißt bijektiv (umkehrbar eindeutig), wenn f injektiv und surjektiv ist. Wir betrachten die Menge G aller bijektiven Abbildungen f : M → M einer Menge M auf sich. Zwei solche Abbildungen f : M → M und g : M → M werden durch ihre Hintereinanderausführung (Komposition) verknüpft: Man definiert f ◦ g durch ( f ◦ g)(x) := f (g(x)) für alle x ∈ M. ( f ◦ g) : M → M ist also wieder eine bijektive Abbildung von M auf sich. Es ist sonnenklar, daß (G, ◦) eine Gruppe ist, denn es gilt für alle f, g, h ∈ G: (I)

( f ◦ g) ◦ h = f ◦ (g ◦ h)

(2.66)

wegen (( f ◦ g) ◦ h)(x) = ( f ◦ g)(h(x)) = f (g(h(x))) = ( f (g ◦ h))(x) = ( f ◦ (g ◦ h))(x) für alle x ∈ M. (II) Die Abbildung I : M → M mit I (x) = x für alle x ∈ M — Identität genannt — erfüllt I◦ f = f = f ◦I

für alle f ∈ G.

(2.67)

(III) Zu jeder bijektiven Abbildung f existiert die Umkehrabbildung f −1 , die folgendes erfüllt f ◦ f −1 = I = f −1 ◦ f .

(2.68)

Die Gruppengesetze sind somit erfüllt. Besitzt M nur ein oder zwei Elemente, so ist die Gruppe (G, ◦) kommutativ (man prüfe dies nach!), hat M drei oder mehr Elemente, evtl. sogar unendlich viele, so ist sie nicht kommutativ (s. Abschn. 2.3.1: Die dortige Gruppe kann als Gruppe der bijektiven Abbildungen auf der Eckpunktmenge M = {1,2,3} aufgefaßt werden. Sie ist nicht kommutativ). Die beschriebene Gruppe G aller bijektiven Abbildungen einer Menge M auf sich wird Per17 s. Burg/Haf/Wille (Analysis) [27], Abschn. 1.3.4, Def. 1.3 und Abschn. 1.3.5, letzter Absatz.

2.3 Algebraische Strukturen: Gruppen und Körper

113

mutationsgruppe von M genannt, symbolisiert durch Perm M := G . Ist M der Zahlenabschnitt Nn := {1,2, . . . , n}, so schreibt man Sn := Perm Nn . Diese endlichen Permutationsgruppen werden wir im nächsten Abschnitt genauer betrachten. Definition 2.10: Es sei (G, ∗) eine Gruppe und U eine nichtleere Teilmenge von G. Man nennt U (bzgl. ∗) eine Untergruppe von (G, ∗)18 , wenn folgendes gilt (U. I)

Wenn x, y ∈ U , so auch x ∗ y ∈ U .

(U. II)

Wenn x ∈ U , so auch x −1 ∈ U .

(In additiver Schreibweise: x, y ∈ U ⇒ x + y ∈ U und x ∈ U ⇒ −x ∈ U.) Es folgt unmittelbar, daß dann auch gilt (U. III)

e∈U,

wobei e das neutrale Element von G ist,

denn: da U  = ∅ so existiert ein x ∈ U , damit auch x −1 ∈ U (nach (U. II)) und somit x ∗ x −1 = e in U (nach (U. I)). Die Untergruppenbeziehung beschreiben wir einfach durch (U, ∗) ⊂ (G, ∗) . U bildet mit der Verknüpfung ∗, eingeschränkt auf die Paare (x, y) mit x, y ∈ U , natürlich wieder eine Gruppe, wie der Name Untergruppe schon sagt. G und {e} sind Untergruppen von (G, ∗). Sie heißen die volle und die triviale Untergruppe. Alle anderen Untergruppen von G werden echte Untergruppen genannt. Definition 2.11: Eine Untergruppe U von (G, ∗) heißt ein Normalteiler, wenn für jedes u ∈ U und jedes a ∈ G gilt: a ∗ u ∗ a −1 ∈ U . (Die Bedeutung der Normalteiler wird später bei Gruppenhomomorphismen klar.) In kommutativen Gruppen sind alle Untergruppen offenbar auch Normalteiler. Beispiel 2.10: (Z, +) ⊂ (Q, +) ⊂ (R, +) ⊂ (C, +). 18 Oder kurz: Untergruppe von G.

114

2 Vektorräume beliebiger Dimensionen

Beispiel 2.11: (Q , ·) ⊂ (R , ·) ⊂ (C , ·). Beispiel 2.12: Die in Abschn. 2.3.1 beschriebene Gruppe G = {I, D, D, W1 , W2 , W3 } hat die echten Untergruppen U0 = {I, D, D}, U1 = {I, W1 }, U2 = {I, W2 }, U3 = {I, W3 }. Man prüfe an Hand der Gruppentafel (Tab. 2.2) nach: U0 ist ein Normalteiler, U1 , U2 , U3 sind es nicht. Übung 2.8* Welche echten Untergruppen hat die Kleinsche Vierergruppe aus Übung 2.7?

2.3.3

Endliche Permutationsgruppen

Wir sehen uns in diesem Abschnitt die Permutationsgruppen Sn genauer an. Sn war definiert als die Menge aller bijektiven Abbildungen der Menge Nn = {1,2, . . . , n} auf sich. Die Permutationsgruppen Sn — auch Symmetriegruppen genannt — spielen in vielen Bereichen der Mathematik eine Rolle, z.B. in der Kombinatorik, Wahrscheinlichkeitsrechnung, Algebra der Polynomgleichungen und der Behandlung der Determinanten (s. Abschn. 3.5). Ist f : Nn → Nn eine bijektive Abbildung, so wollen wir Funktionswerte f (i) auch durch ki bezeichnen: f (i) =: ki . Die Abbildung f kann damit vollständig durch das Schema   1 2 3 ··· n f = k1 k2 k3 · · · kn beschrieben werden, wobei (k1 , k2 , . . . , kn ) eine Permutation von (1, 2, . . . , n) ist (daher der Name »Permutationsgruppe«). Die Permutationen von (1, 2, . . . , n) (d.h. die n-Tupel (k1 , . . . , kn ), bestehend aus allen Zahlen 1, 2, . . . , n) sind also den Abbildungen f ∈ Sn umkehrbar eindeutig zugeordnet, so daß wir sie miteinander identifizieren können:   1 2 ··· n = (k1 , . . . , kn ) . k1 k2 · · · kn Die Abbildungen f ∈ Sn werden wir also auch als Permutationen bezeichnen. Die Ordnung von Sn ist n! (s. Burg/Haf/Wille (Analysis) [27], Abschn. 1.2.2) Die Verknüpfung von f, g ∈ Sn bezeichnen wir einfach durch f g. Als explizites Beispiel siehe die Gruppe S3 in Abschn. 2.3.1. Definition 2.12: Als Transposition t bezeichnen wir jede Permutation aus Sn , die genau zwei Zahlen vertauscht und alle übrigen fest läßt, also t (i) = j ,

t ( j) = i

für zwei Zahlen i, j ∈ Nn , i  = j,

und t (k) = k für alle k = i und k  = j.

2.3 Algebraische Strukturen: Gruppen und Körper

115

Satz 2.12: Jede Permutation aus Sn läßt sich als Produkt von endlich vielen Transpositionen darstellen. Beweis: Zur Erzeugung von (k1 , k2 , . . . , kn ) aus (1, 2, . . . , n) bringt man zuerst k1 an die erste Stelle, durch Vertauschen von 1 mit k1 (falls nicht k1 = 1). Dann wird 2 und k2 vertauscht, falls nicht k2 = 2, usw. Diese Folge von Vertauschungen läßt sich als Produkt von Transpositionen schreiben.  Für weitere Überlegungen unterscheiden wir gerade und ungerade Permutationen: Definition 2.13: Als Fehlstand einer Permutation (k1 , k2 , . . . , kn ) bezeichnet man ein Paar ki , k j mit i < j,

aber ki > k j .

Eine Permutation heißt gerade, wenn die Anzahl ihrer Fehlstände gerade ist. Andernfalls heißt sie ungerade. Z.B.: Die Permutation (2, 3, 1) hat die Fehlstände (2, 1), (3, 1), und keine weiteren. (2, 3, 1) ist also eine gerade Permutation. Man vereinbart weiter:  sgn( p) :=

1 −1

falls p gerade Permutation falls p ungerade Permutation

(sgn( p) wird gesprochen als »Signum p«). Satz 2.13: Eine Permutation p ist genau dann gerade, wenn bei jeder Darstellung p = t1 t2 . . . tm ,

ti Transpositionen ,

die Anzahl m der verwendeten Transpositionen gerade ist. Für ungerade Permutationen gilt Entsprechendes. Beweis: Eine Transposition wird als Vertauschung zweier Zahlen aufgefaßt. Wir können also die Permu  1 2 ... n tation p = t1 t2 . . . tm e (mit dem neutralen Element e = (1,2, . . . , n)(= ) aus 1 2 ... n Sn ) so auffassen, also ob p aus (1, 2, . . . , n) durch sukzessives Vertauschen je zweier Zahlen entsteht, und zwar entsprechend den Transpositionen tm , tm−1 , . . . tr , die in dieser Reihenfolge nacheinander angewandt werden. Jede Vertauschung zweier Zahlen erzeugt aber genau einen neuen Fehlstand, oder vernichtet genau einen. Ist m also gerade, so kommt am Ende eine gerade Anzahl von Fehlständen heraus, anderenfalls eine ungerade. 

116

2 Vektorräume beliebiger Dimensionen

Mit Satz 2.13 beweist man leicht sgn( p1 ∗ p2 ) = sgn( p1 ) sgn( p2 ) ,

sgn( p −1 ) = sgn p .

Übung 2.9: (a) Welche der folgenden Permutationen sind gerade und welche ungerade (3, 1, 2) ,

(3, 2, 1) ,

(5, 7, 1, 2, 6, 3, 4) ?

(b) Schreibe diese Permutationen als Produkte aus Transpositionen.

2.3.4

Homomorphismen, Nebenklassen

Dieser Abschnitt rundet das »Einmaleins« über Gruppen ab. Unmittelbare Anwendungen auf die Ingenieurpraxis kommen dabei nicht vor (sehr wohl aber mittelbare für die »Darstellungstheorie von Gruppen« und damit für Kristallographie und Quantenmechanik). Der anwendungsorientierte Leser mag sich zunächst mit »Querlesen« begnügen. Im vorliegenden Abschnitt schreiben wir i.a. Gruppen multiplikativ, d.h. Produkte werden in der Form x y oder x · y ausgedrückt. Gruppen (G, ·) werden auch einfach durch G beschrieben. Definition 2.14: Es seien G, H zwei Gruppen. Ein Homomorphismus von G nach H ist eine Abbildung f : G → H , die folgendes erfüllt: f (x y) = f (x) f (y)

für alle

x, y ∈ G .

Diese Gleichung heißt Homomorphiebedingung. Ist f zusätzlich bijektiv, so heißt f ein Isomorphismus von G auf H . Im Falle G = H nennt man den Isomorphismus f : G → G Automorphismus. Beispiel 2.13: Durch f (x) = ex wird ein Isomorphismus von (R, +) auf (R+ , ·) vermittelt, wobei R+ := (0, ∞). Der Leser überprüfe dies. Beispiel 2.14: Für alle z ∈ C sei f (z) = |z|. Mit C = C \ {0}, und R+ = (0, ∞) folgt: f : C → R+ ist ein Homomorphismus bezüglich · von (C, ·) auf (R+ , ·). Beispiel 2.15: Für unser Beispiel G = {I, D, D, W1 , W2 , W3 } aus Abschn. 2.3.1 definieren wir 1 = f (I ) = f (D) = f (D) und −1 = f (Wi ) für alle i = 1,2,3. Damit ist f : G → {−1,1} ein Homomorphismus, wobei {−1, 1} bzgl. · eine Gruppe ist. Als Kern des Gruppen-Homomorphismus f : G → H — kurz Kern f — bezeichnet man die Menge aller x ∈ G mit f (x) = e , wobei e das neutrale Element von H ist. Das Bild des

2.3 Algebraische Strukturen: Gruppen und Körper

117

Homomorphismus f : G → H ist einfach die Menge f (G) = { f (x) | x ∈ G} (also der Wertebereich von f .) Satz 2.14: Eigenschaften von Homomorphismen: Es sei f : G → H ein Homomorphismus der Gruppe G in die Gruppe H . Ferner seien e ∈ G und e ∈ H die neutralen Elemente. Damit gilt (a) f (e) = e . (b) f (x −1 ) = ( f (x))−1 für alle x ∈ G. (c) Das Bild von f ist eine Untergruppe von H . (d) Der Kern von f ist ein Normalteiler in G. (e) Ist g : H → K ein weiterer Gruppen-Homomorphismus, so ist auch die Komposition g ◦ f : G → K ein Gruppen-Homomorphismus. (f) Ist f : G → H ein Isomorphismus, so ist auch die Umkehrabbildung f −1 : H → G ein Isomorphismus. Die einfachen Beweise bleiben dem Leser überlassen (s. z.B. [86], S. 38 – 40). Definition 2.15: Es sei U eine Untergruppe der Gruppe G. Dann heißt jede Menge aU := {ax | x ∈ U } ,

a∈G

eine Linksnebenklasse von U , und entsprechend U a := {xa | x ∈ U } eine Rechtsnebenklasse von U . Der gemeinsame Begriff für Links- und Rechtsnebenklasse ist — na was wohl? — Nebenklasse. Folgerung 2.6: Die Gruppe G wird in Linksnebenklassen von U zerlegt, d.h. verschiedene Linksnebenklassen sind elementfremd und G ist die Vereinigung aller Linksnebenklassen. (Für Rechtsnebenklassen gilt Entsprechendes.) Beweis: Die letzte Aussage ist offensichtlich richtig, da jedes x ∈ G ja in »seiner« Nebenklasse xU liegt. — Es seien aU , bU zwei verschiedene Linksnebenklassen. Wir können (ohne Beschränkung der Allgemeinheit) annehmen, daß au ∈ aU nicht in bU liegt. Hätten aU und bU aber ein gemeinsames Element z, hätte es die Form z = ax = by mit passendem x, y ∈ U . Es folgte a = byx −1 (durch Rechtsmultiplikation mit x −1 ), also au = (byx −1 )u = b(yx −1 u) ∈ bU , im Widerspruch zu au ∈ / bU . Daher gilt aU ∩ bU = ∅. 

118

2 Vektorräume beliebiger Dimensionen

Folgerung 2.7: Ist G eine endliche Gruppe, so haben alle Nebenklassen einer Untergruppe U von G gleichviele Elemente. Beweis: Mit U = {a1 , a2 , . . . , an } ist aU = {aa1 , aa2 , . . . , aan }, wobei aai  = aa j für j  = i ist, denn aus aai = aa j folgte nach Linksmultiplikation mit a −1 : ai = a j . Entsprechend U a = {a1 a, . . . , an a}.  Satz 2.15: (von Lagrange) Es sei G eine endliche Gruppe. Es folgt: Die Ordnung jeder Untergruppe U von G ist Teiler der Gruppenordnung. Beweis: G wird in »gleichgroße« Linksnebenklassen von U zerlegt, wobei U = eU selbst eine Nebenklasse ist. Damit folgt die Behauptung.  Bemerkung: Dieser Satz ist eine große Hilfe beim Aufsuchen aller Untergruppen einer endlichen Gruppe, denn alle Teilmengen, deren Elementanzahlen die Gruppenordnung nicht teilen, entfallen schon als Kandidaten für Untergruppen. Eine Untergruppe U einer Gruppe G ist genau dann ein Normalteiler, wenn aU = U a für alle a ∈ G gilt, d.h. wenn jede Linksnebenklasse gleich der entsprechenden Rechtsnebenklasse ist. Denn aU = U a bedeutet: Für jedes u ∈ U gibt es ein v ∈ U mit au = va, d.h. für jedes u gilt aua −1 = v ∈ U , d.h. U ist Normalteiler. Definition 2.16: Ist N ein Normalteiler einer Gruppe G, so bildet die Menge aller Nebenklassen von N eine Gruppe bzgl. der Verknüpfung a N · bN = abN .

(2.69)

Diese Gruppe heißt Faktorgruppe von G nach N und wird mit G/N symbolisiert. (Es ist N neutrales Element von G/N und (a N )−1 = a −1 N .) Folgerung 2.8: Durch f (x) = x N wird ein Homomorphismus von G auf G/N vermittelt. Dabei ist N der Kern von f . Jeder Normalteiler einer Gruppe G ist also Kern eines Homomorphismus und jeder Homomorphismus auf G hat einen Normalteiler als Kern. Man kann sagen: Die Normalteiler beschreiben alle Homomorphismen. Der folgende Satz faßt dies noch deutlicher zusammen. Satz 2.16: (Homomorphiesatz für Gruppen) Für jeden Gruppenhomomorphismus f : G → H mit Kern N gilt: Die Faktorgruppe G/N ist isomorph zu f (G) ⊂ H bezüglich der Abbildung α : G/N → f (G), definiert durch α(a N ) = f (a).

2.3 Algebraische Strukturen: Gruppen und Körper

119

Beweis: Es ist hauptsächlich zu zeigen, daß f alle Elemente aus a N auf f (a) abbildet. Man erkennt dies sofort aus f (au) = f (a) f (u) = f (a)e = f (a) für alle u ∈ N (e neutral in H ). Damit ist α sinnvoll erklärt, und der Nachweis, daß α ein Isomorphismus ist, elementar.  Übung 2.10: Gib die Faktorgruppe G/N an für G = {I, D, D, W1 , W2 , W3 } und N = {I, D, D}, s. Abschn. 2.3.1.

Übung 2.11: Durch sgn p ( p Permutation aus Sn ) ist eine Abbildung sgn : Sn → {−1,1} gegeben. Zeige, daß sie ein Homomorphismus ist (G = {−1,1} ist eine Gruppe bzgl. der Multiplikation). Anleitung: Stelle zum Nachweis der Homomorphiebedingung die Permutationen als Produkte von Transpositionen dar und verwende Satz 2.13 aus Abschn. 2.3.3.

2.3.5

Körper

Definition 2.17: Ein algebraischer Körper (K, +, ·) — kurz Körper19 — besteht aus einer Menge K und zwei Verknüpfungen + (Addition) und · (Multiplikation), die jedem Paar (a, b), a, b ∈ K, jeweils genau ein Element a + b bzw. a · b zuordnen. a + b heißt die Summe von a, b, a · b Produkt von a, b. Dabei müssen folgende Gesetze erfüllt sein. Für alle a, b, c ∈ K gilt: (A1) a + (b + c) = (a + b) + c. (A2) a + b = b + a. (A3) Es gibt ein Element 0 ∈ K mit a + 0 = a für alle a ∈ K. (A4) Zu jedem a ∈ K gibt es genau ein x ∈ K mit a + x = 0. Man schreibt dafür x =: −a. (M1) a · (b · c) = (a · b) · c. (M2) a · b = b · a. (M3) Es gibt ein Element 1 ∈ K mit a · 1 = a für alle a ∈ K. (M4) Zu jedem a  = 0 aus K gibt es genau ein y ∈ K mit ay = 1. Man schreibt dafür 1 y =: a −1 oder y = . a (D1) a · (b + c) = a · b + a · c. (D2) 0  = 1.

19 Da Beiwort algebraisch soll zur Unterscheidung von physikalischen Körpern im Raum dienen. Das Beiwort wird weggelassen, wenn Irrtümer ausgeschlossen sind.

120

2 Vektorräume beliebiger Dimensionen

Bemerkung: Die Gesetze (A1) und (M1) heißen Assoziativgesetze der Addition bzw. Multiplikation. (A2) und (M2) werden entsprechend Kommutativgesetze genannt, während (D1) Distributivgesetz heißt. Der Multiplikationspunkt · wird auch weggelassen: a · b = ab. Die Assoziativgesetze (A1), (M1) bedeuten, wie bei Gruppen, daß es gleichgültig ist, wie man Klammern setzt. Wir lassen sie daher auch einfach weg, sowohl bei dreifachen Summen und Produkten, wie auch bei längeren. Die Körperaxiome (A1) bis (D2) zeigen, daß (K, +) und (K , ·) (mit K = K \ {0}) abelsche Gruppen sind; 0 und 1 sind damit eindeutig bestimmt. Die Gruppen sind durch die Gesetze (D1) und (D2) verknüpft. Subtraktion bzw. Division werden folgendermaßen definiert a − b := a + (−b) ;

a : b :=

a 1 := a · b b

(b  = 0) .

(2.70)

Es folgen aus den Axiomen (A1),. . . , (D2) alle Regeln der Bruchrechnung, wie in Burg/Haf/Wille (Analysis) [27], Abschn. 1.1.2: a b ad + bc a b ab a b ad + = , · = , : = , c d cd c d cd c d cb a(−b) = −ab , (−a)(−b) = ab , b ax = b (a = 0) ⇔ x = ; a · 0 = 0 . a

(2.71) (2.72) (2.73)

Man definiert die Potenzen mit natürlichen Zahlen n: a n := a · a · a· . . . · a n Faktoren und im Fall a  = 0: a0 = 1 ,

a −n =

1 an

(n ∈ N) ,

womit die Potenzen für alle ganzen Hochzahlen erklärt sind. Dies alles hat niemand anders erwartet! Doch nun zu den Beispielen: Körper sind Q, R und C bezüglich der üblichen Addition und Multiplikation. Diese drei Körper sind unsere Hauptbeispiele. Doch gibt es auch endliche Körper (bei denen K eine endliche Menge ist). Sie sind für die Ingenieurmathematik aber von geringem Interesse. Beispiel 2.16: Der einfachste Körper ist K = {0,1} mit 0 + 0 = 0, 0 + 1 = 1 + 0 = 1, 1 + 1 = 0 und 0 · 0 = 0 · 1 = 0, 1 · 1 = 1. Ziemlich trivial! Beispiel 2.17: Ist p eine Primzahl, so kann man mit den Zahlen der Menge Zp = {0,1, . . . , p − 1} »zyklisch modulo p« rechnen. Das geht so: Für a, b ∈ Z p definiert man a ⊕ b := a + b, falls a + b < p,

2.4 Vektorräume über beliebigen Körpern

121

und a ⊕ b := a + b − p, falls a + b ≥ p. Entsprechend: a  b := a · b − mp, wobei die ganze Zahl m ≥ 0 so gewählt wird, daß a · b − mp ∈ Z p . Damit ist (Z p , ⊕, ) ein Körper. (Der Beweis wird hier aus Platzgründen weggelassen.) Man nennt Z p den Restklassenkörper modulo p. Bemerkung: Eine Menge K mit zwei Verknüpfungen + und ·, die nur die Gesetze (A1), (A2), (A3), (A4), (M1) und (D1) zuzüglich (D1) : (b+c)·a = b·a +c·a erfüllen, heißt ein Ring. Meist wird auch noch (M3) gefordert, also die Existenz einer 1 ∈ K mit a · 1 = 1 · a = a für alle a ∈ K. Man spricht dann von einem Ring mit Eins (-Element). Gilt zusätzlich (M2): a · b = b · a, so liegt ein kommutativer Ring vor. Schließlich heißt ein kommutativer Ring mit 1 ein Integritätsbereich, wenn aus x · y = 0 folgt: x = 0 oder y = 0. Beispiele für Ringe sind (Z, +, ·), der »Ring der ganzen Zahlen« (er ist ein Integritätsbereich), ferner die Menge der Polynome bzgl. +, ·, und der »Ring der quadratischen n-reihigen Matrizen«, s. Abschn. 3. Da für die Ingenieurpraxis die Ringtheorie von geringer Bedeutung ist, brechen wir die Erörterung hier ab. Ein einfacher Einstieg ist in [86] zu finden. Übung 2.12* Zeige, daß Z3 = {0,1,2} ein Körper wird, wenn man in ihm zyklisch modulo 3 rechnet (s. Beisp. 2.17).

2.4

Vektorräume über beliebigen Körpern

Nachdem wir die speziellen Vektorräume Rn und Cn in Abschn. 2.1 kennen und lieben gelernt haben, werden hier die Vektorräume allgemein als algebraische Strukturen eingeführt, Rn und Cn erscheinen als Spezialfälle dieser Struktur. Als wichtige weitere Beispiele werden Funktionenräume genannt.20 Sie spielen bei Differential- und Integralgleichungen eine grundlegende Rolle. Der praxisorientierte Leser, wie auch der Anfänger, kann diesen Abschnitt zunächst überspringen und mit Abschn. 3 fortfahren. Er mag bei Bedarf hierher zurückkehren und an einem Abend, an dem im Fernsehen nichts Gescheites gesendet wird, diesen Abschnitt genießen. 2.4.1

Definition und Grundeigenschaften

Im Folgenden sei (K, +, ·) ein beliebiger algebraischer Körper — kurz Körper K genannt (s. Abschn. 2.3.5). Man kann sich einfach R an Stelle von K vorstellen, wenn einem die algebraische Struktur »Körper« noch ungewohnt ist. Die beiden Körper R und C sind für die Anwendungen sowieso am wichtigsten. Wir definieren Vektorräume über K, indem wir uns an Rn orientieren. Definition 2.18: Ein Vektorraum über einem Körper K besteht aus einer nichtleeren Menge V , ferner (a) einer Vorschrift, die jedem Paar (x, y) mit x, y ∈ V genau ein Element x + y ∈ V zuordnet (Addition) 20 s. Abschn. 2.4.9

122

2 Vektorräume beliebiger Dimensionen

(b) und einer Vorschrift, die jedem Paar (λ, x) mit λ ∈ K und x ∈ V genau ein Element λx ∈ V zuordnet (Multiplikation mit Skalaren, s-Multiplikation), wobei für alle x, y, z ∈ V und λ, µ ∈ K folgende Regeln gelten: (A1) x + ( y + z) = (x + y) + z, (A2) x + y = y + x, (A3) Es existiert genau ein Element 0 in V mit

(A4)

(Assoziativgesetz) (Kommutativgesetz)

x + 0 = x für alle x ∈ V Zu jedem x ∈ V existiert genau ein Element x ∈ V mit x + x = 0 .

(S1) (S2) (S3)

Man bezeichnet x durch −x und nennt es das Negative zu x. Ferner: (λ + µ)x = λx + µx (Distributivgesetze) λ(x + y) = λx + λ y (λµ)x = λ(µx) (Assoziativgesetz)

(S4)

1x = x

mit 1 ∈ K.

Bezeichnungen und Erläuterungen: Statt Vektorraum über K sagt man auch K-Vektorraum, oder linearer Raum21 über K. Der beschriebene Vektorraum V über K wird auch durch das Tripel (V, +, K) symbolisiert. Die Elemente von V werden Vektoren oder Punkte genannt, die Elemente von K Skalare. Die Additionsgesetze (A1) bis (A4) besagen nichts anderes, als daß (V, +) eine additive abelsche Gruppe ist, s. Abschn. 2.3.2. Wir benötigen aus Abschn. 2.3.2 nicht mehr, als daß die Subtraktion durch x − y := x + (− y) erklärt ist, und daß man Summen x + y + z, x + y + z + w usw. meistens ohne Klammern schreibt, da es wegen (A1) gleichgültig ist, wie man Klammern setzt. Dasselbe gilt übrigens für λµx, λµαx usw. auf Grund von Regel (S3). Man schreibt überdies xλ := λx

und

x 1 := x λ λ

(λ  = 0) .

21 Der Ausdruck »linearer Raum« hat sich insbesondere in der »Funktionalanalysis« eingebürgert, in der die lineare Algebra und Analysis zu einer höheren Einheit verschmelzen.

2.4 Vektorräume über beliebigen Körpern

123

Folgerung 2.9: Für alle x aus einem Vektorraum V über K und alle λ ∈ K gilt: (a) (b) (c)

0x = 0 , λ0 = 0 λx = 0 ⇒ (λ = 0 oder x = 0) (−λ)x = λ(−x) = −λx , speziell (−1)x = −x .

Beweis: (a) 0x = 0x + 0x − 0x = (0 + 0)x − 0x = 0x − 0x = 0, und analog λ0 = 0. (b) Sei λx = 0. Dann ist λ = 0 oder λ  = 0. Im letzteren Fall gilt x = (λ−1 λ)x = λ−1 (λx) = λ−1 0 = 0. (c) (−λ)x = (−λ)x + λx − λx = (−λ + λ)x − λx = 0 − λx = −λx. Mit λ = 1 folgt (−1)x = −1x = −x und damit λ(−x) = (λ(−1))x = (−λ)x.  Übung 2.13* Es sei (V, +) eine nichttriviale abelsche Gruppe und K ein Körper. Wir definieren das Produkt λx für alle λ ∈ K und alle x ∈ V durch λx := 0. Ist damit V ein Vektorraum über K? Welche Gesetze in Def. 2.26 sind erfüllt und welche evtl. nicht?

2.4.2

Beispiele für Vektorräume

Beispiel 2.18: Die Vektorräume Rn über R, sowie Cn über C, sind wohlbekannt. Beispiel 2.19: Mit einem beliebigen Körper K bildet man den Vektorraum Kn über K nach dem gleichen Muster wie Rn über R. D.h. Kn besteht aus allen Spaltenvektoren, die jeweils n Elemente aus K enthalten (die »Koordinaten« des Spaltenvektors). Die Addition + geschieht koordinatenweise, wie beim Rn , und die Multiplikation mit λ ∈ K ebenfalls. Die Kraft des allgemeinen Vektorraumbegriffes entfaltet sich besonders bei Mengen von Funktionen, den sogenannten Funktionenräumen. Dazu geben wir einige Beispiele an. Beispiel 2.20: Die Menge C(I ) aller stetigen reellwertigen Funktionen auf einem Intervall I bildet bzgl. der üblichen Addition von Funktionen und der üblichen Multiplikation mit reellen Zahlen einen Vektorraum über R. Beispiel 2.21: Analog zu C(I ) kann man die Menge C k (I ) aller k-mal stetig differenzierbaren reellwertigen Funktionen auf I als Vektorraum über R auffassen (k ∈ N0 = {0,1,2,3, . . .}). Dabei identifiziert man C 0 (I ) := C(I ), C ∞ (I ) ist der Vektorraum der beliebig oft stetig differenzierbaren

124

2 Vektorräume beliebiger Dimensionen

Funktionen f : I → R. Es folgt C(I ) ⊃ C 1 (I ) ⊃ C 2 (I ) ⊃ . . . ⊃ C ∞ (I ) . Beispiel 2.22: Die Menge Pol R aller Polynome p(x) = a0 + a1 x + . . . an x n (x ∈ R, ai ∈ R) für beliebige n ∈ N0 bildet bzgl. Addition und Multiplikation mit reellen Zahlen einen Vektorraum über R. Mit Poln R bezeichnen wir die Menge aller Polynome aus Pol R, deren Grad höchstens n ist. Es gilt zweifellos R = Pol0 R ⊂ Pol1 R ⊂ Pol2 R ⊂ . . . ⊂ Pol R . Auch Zahlenfolgen können sich zu Vektorräumen formieren. So bilden alle reellen Zahlenfolgen einen Vektorraum über R bzgl. gliedweiser Addition und gliedweiser Multiplikation mit reellen Zahlen. Aber auch alle konvergenten Folgen, alle Nullfolgen und alle beschränkten Folgen stellen je einen Vektorraum dar. Ein für die Theorie der Fourierreihen wichtiger Folgenraum22 sei abschließend erwähnt: Beispiel 2.23: Die Menge 2 aller reellen Zahlenfolgen (a0 , a1 , a2 , . . .) mit ∞ 

ak2

konvergent

k=0

ist ein Vektorraum über R. Er wird Hilbertscher Folgenraum23 genannt. Er ist dem Rn sehr verwandt. Zwar haben seine Elemente a = (a0 , a1 , a2 , . . .) unendliche viele Koordinaten, doch ∞ $ kann man aus a und b = (b0 , b1 , b2 , . . .) in 2 das innere Produkt a · b = ai bi bilden, sowie i=0 √ die Länge |a| = a · a definieren. Damit lassen sich, wie im Rn , Winkel (a, b) erklären, kurz, man kann »Geometrie« betreiben. (Die Bedeutung von 2 in der Fourierreihen-Theorie wird in Abschn. 2.4.9 kurz erläutert.) Beispiel 2.24: Allgemeiner als 2 wird  p eingeführt, der Vektorraum aller reellen Folgen a = (a0 , a1 , a2 , . . .) ∞ $ mit konvergenter Summe |ai | p ( p > 1). Hier arbeitet man mit der »Vektorlänge« |a| p = i=0 1/ p ∞ $ p |ai | . Innere Produkte werden im Falle p  = 2 nicht benutzt. i=0

Übung 2.14* Welche der folgenden Mengen sind Vektorräume über R? 22 s. Abschn. 2.4.9 23 Nach dem deutschen Mathematiker David Hilbert (1862 – 1943).

2.4 Vektorräume über beliebigen Körpern

125

(a) Die Menge der reellen Folgen (an )n∈N mit an → 1 für n → ∞? (b) Die Menge aller reellen abbrechenden Folgen (an )n∈N ? (Eine abbrechende Folge sieht so aus: (a1 , a2 , a3 , . . . a N , 0,0,0, . . .), d.h. an = 0 für alle n > N . Der Abbrechindex N kann für verschiedene Folgen dabei verschieden sein.) (c) Die Menge der Funktionen f : R → R mit | f (x)| → 0 für |x| → ∞? ⎡ ⎤ x1 ⎢ ⎥ (d) Die Vektoren x = ⎣x2 ⎦ ∈ R3 ? Überall werden dabei die üblichen Operationen + und 1 λ· (mit λ ∈ R) verwendet.

2.4.3

Unterräume, Basis, Dimension

Wir machen es uns jetzt ziemlich einfach: Die Begriffe und Sätze aus dem entsprechenden Abschn. 2.1.3 über den Rn werden auf Vektorräume über K ausgedehnt. Wir wollen sehen, wie weit das möglich ist. Definition 2.19: Es sei V ein Vektorraum über dem Körper K. Als Linearkombination der Vektoren a1 , . . . , am ∈ V bezeichnet man jede Summe m 

λi ai

mit λi ∈ K .

i=1

Die Vektoren a1 , . . . , am ∈ V heißen linear abhängig, wenn wenigstens einer der Vektoren als Linearkombination der übrigen geschrieben werden kann oder einer der Vektoren 0 ist.24 Andernfalls nennt man die a1 , . . . , am linear unabhängig. Die lineare Unabhängigkeit der a1 , . . . , am ist gleichbedeutend damit, daß die Linearkombination m 

λi ai = 0 (λi ∈ K)

(2.74)

i=1

nur durch λ1 = λ2 = . . . = λm = 0 erfüllt werden kann. (Beweis wie in Folg. 1.9, Abschn. 1.2.7.) Satz 2.17: (Fundamentallemma in Kn ) Je n + 1 Vektoren aus Kn sind linear abhängig. Beweis: Der Gaußsche Algorithmus ohne Pivotierung (s. Abschn. 2.2.1, 2.2.3) verläuft mit Werten aus K ganz genau so wie mit Werten aus R. Damit läßt sich der Beweis von Satz 2.2, Abschn. 2.1.3 wörtlich übertragen. wenn man R durch K ersetzt.  24 Letzteres ist hauptsächlich auf den Fall m = 1 gemünzt.

126

2 Vektorräume beliebiger Dimensionen

Definition 2.20: V sei ein Vektorraum über K. Eine nichtleere Teilmenge U von V heißt ein Unterraum von V , wenn mit je zwei Vektoren x, y ∈ U auch x + y ∈ U und λx ∈ U (für alle λ ∈ K) ist. Natürlich bedeutet dies, daß U selbst ein Vektorraum über K ist bzgl. der Addition und sMultiplikation in V , wie man leicht nachweist. Kleinster Unterraum von V ist {0}, größter V selbst. Definition 2.21: (a) Es sei V ein Vektorraum über K. V heißt unendlichdimensional, wenn es beliebig viele linear unabhängige Vektoren in V gibt. Symbolisch ausgedrückt: dim V = ∞ . V heißt endlichdimensional, wenn V nicht unendlichdimensional ist. (b) Ist V endlichdimensional, so heißt die maximale Anzahl linear unabhängiger Vektoren in V die Dimension von V . Diese Zahl sei n. Man schreibt dim V = n . Je n linear unabhängige Vektoren a1 , . . . , an ⊂ V bilden eine Basis (a1 , . . . , an ) von V .25 Die Übertragung der Begriffe und Sätze von Rn in V klappt wie am Schnürchen. Es gilt: Satz 2.18: (a) Ist (a1 , . . . , an ) eine Basis des n-dimensionalen Vektorraumes V über K, so besteht V aus allen Linearkombinationen x = λ1 a1 + λ2 a2 + . . . + λn an

(λi ∈ K) .

(2.75)

(b) Die λi sind durch x und a1 , . . . , an eindeutig bestimmt. Der Beweis verläuft wörtlich wie der Beweis des Satzes 2.3, Abschn. 2.1.3, wenn man dort V statt U , K statt R und n statt m setzt. Ist A eine beliebige nichtleere Teilmenge eines Vektorraumes V über K, so bilden alle Linearp $ λi ai mit beliebigen p ∈ N, λi ∈ K, ai ∈ A zweifellos einen Unterraum kombinationen x = i=1

U von V . Er wird Span A := U 25 Oft wird als Basis auch die Menge {a1 , . . . , an } bezeichnet. Wir bevorzugen aber das n-Tupel (a1 , . . . , an ) für den Basisbegriff, da man so »Rechts-« und »Linkssysteme« unterscheiden kann.

2.4 Vektorräume über beliebigen Körpern

127

genannt. Man sagt: »A spannt U auf« oder »A ist ein Erzeugendensystem von U«. Im Fall U = V spannt A den ganzen Raum V auf: Span A = V , und A ist dann — wen wundert’s — ein Erzeugendensystem von V . Es gilt A ⊂ Span A . Ist A = {a1 , . . . , am } dabei endlich, so besteht Span{a1 , . . . , am } genau aus allen Summen

m $

λi ai . Im Fall linear unabhängiger ai folgt:

i=1

Satz 2.19: (Konstruktion von Unterräumen) Sind die Vektoren a1 , . . . , am aus dem Vektorraum V über K linear unabhängig, so hat der von ihnen aufgespannte Unterraum U = Span{a1 , . . . , am } die Dimension m. Die Menge (a1 , . . . , am ) ist also eine Basis von U . Beweis: U besteht aus allen Vektoren x=

m 

λi ai

(λi ∈ K) .

(2.76)

i=1

Es ist dim U ≥ m, da die a1 , . . . , am ∈ U linear unabhängig sind. Es ist daher nachzuweisen, daß je m +1 Vektoren aus U linear unabhängig sind (woraus dim U = m folgt). Dieser Nachweis verläuft völlig analog zum Beweis von Satz 2.4 (ab II), in Abschn. 2.1.3 (unter Benutzung des »Fundamentallemmas« Satz 2.17).  Für den Spezialfall U = V erhält man Folgerung 2.10: Sind die Vektoren a1 , . . . , an aus dem Vektorraum V über K linear unabhängig und spannen sie V auf, so bilden sie eine Basis von V . Insbesondere ist dann dim V = n. Auch der Satz über den Austausch von Basiselementen (Satz 2.5, Abschn. 2.1.3) wird samt Beweis übertragen. (Man hat nur U aus Rn durch V zu ersetzen): Satz 2.20: (Austausch von Basiselementen) Es sei V ein n-dimensionaler Vektorraum über K mit der Basis (a1 , . . . , an ). Sind b1 , . . . , bk (k < n) beliebige linear unabhängige Vektoren aus V , so kann man sie zu einer Basis (b1 , . . . , bk , bk+1 , . . . , bn ) von V ergänzen, wobei die bk+1 , . . . , bn aus {a1 , . . . , an } entnommen sind.

128

2 Vektorräume beliebiger Dimensionen

Basis-Wechsel Geht man im Vektorraum V über K von einer Basis (a1 , . . . , an ) zu einer neuen Basis (b1 , . . . , bn ) über, so verwandelt sich die Darstellung x=

n 

ξi ai

(ξi ∈ K)

(2.77)

i=1

eines beliebigen Punktes x ∈ V folgendermaßen: Zunächst gilt ai =

n 

αki bk ,

i = 1, . . . , n

(2.78)

k=1

mit bestimmten αki ∈ K. Damit erhält man x=

n  i=1

ξi

n 

αki bk =

n 

k=1

bk

k=1

n 

αki ξi ,

i=1

also x=

n 

ξk bk

mit

ξk

k=1

=

n 

αki ξi .

(2.79)

i=1

Lineare Mannigfaltigkeiten Entsprechend Abschn. 2.1.3 wird definiert: Ist U ein Unterraum des K-Vektorraums V und r 0 ein beliebiger Vektor aus V , dann nennt man M = r 0 + U := {r 0 + x | x ∈ U } eine lineare Mannigfaltigkeit in V . Für die Dimension von M vereinbart man einfach dim M := dim U (auch im Fall dim U = ∞). Ist U dabei ein Unterraum von der Art, daß U ∪ {x 0 } mit einem x 0 ∈ V \ U den Raum V aufspannt, dann heißt M eine Hyperebene in V . Ist dagegen U = {λx 0 | λ ∈ K}, (x 0 ∈ V , x 0  = 0), dann heißt M eine Gerade in V . Auf diese Weise bekommen wir immer mehr »Geometrie« in unsere staubtrockenen Vektorräume. Ein wichtiges Anwendungsbeispiel für endlichdimensionale Funktionenräume und Mannigfaltigkeiten tritt bei linearen Differentialgleichungssystemen auf. Beispiel 2.25: Man betrachte das lineare Differentialgleichungssystem yi (x) =

n  k=1

aik (x)yk (x) + bi (x) ,

i = 1, . . . , n ,

(2.80)

2.4 Vektorräume über beliebigen Körpern

129

x ∈ I (Intervall), wobei die aik : I → R und bi : I → R gegebene stetige Funktionen sind und die yi : I → R gesuchte stetig differenzierbare Funktionen (s. Burg/Haf/Wille (Band III) [24], Abschn. 2.2). 1. Fall bi (x) ≡ 0 für alle i (homogener Fall): Faßt man die yi (x) zu einem »Funktionenvektor« y(x) = [y1 (x), . . . , yn (x)]T zusammen, so bilden die Lösungen y(x) von (2.80) einen n-dimensionalen Vektorraum V über R (bzgl. der koordinatenweise Addition und Multiplikation mit λ ∈ R). Eine Basis dieses Vektorraumes heißt ein Fundamentalsystem von Lösungen (s. Burg/Haf/Wille (Band III) [24], Abschn. 2.2.1). 2. Fall bi (x) nicht alle ≡ 0 (inhomogener Fall): Ist durch y(x) = [y1 (x), . . . , yn (x)]T irgendeine Lösung gegeben, so wird mit einem Fundamentalsystem ( y1 (x), . . . , yn (x)) aus dem homogenen Fall jede Lösung durch y(x) = y0 (x) +

n 

λi yi (x) ,

λi ∈ R ,

i=1

beschrieben, und jedes y(x) dieser Art ist auch Lösung. Die Lösungsmenge ist damit eine ndimensionale Mannigfaltigkeit im Raum C 1 (I ) aller stetig differenzierbaren Funktionen f : I → R. (s. Burg/Haf/Wille (Band III) [24], Abschn. 2.3). Bemerkung: Die Funktionenräume C(I ), C k (I ), C ∞ (I ), Pol R, sind unendlichdimensional, da sie alle Pol R als Unterraum enthalten.26 Der Raum Pol R ist aber unendlichdimensional, da er alle Potenzfunktionen pk (x) = x k (k ∈ N0 ) enthält, von denen je endlich viele linear unabhängig m $ sind (denn aus 0 ≡ αk x k folgt αk = 0 für alle k = 0, . . . , m, da ein nicht verschwindendes k=0

Polynom m-ten Grades höchstens m Nullstellen hat.)  p ist ebenfalls unendlichdimensional. (Man betrachte dazu ei = (0, . . . , 0,1,0,0, . . .) ∈  p , 1 an i-ter Stelle). Übung 2.15* Zeige, daß die Menge der trigonometrischen Reihen f (x) = a0 +

n 

(ak cos(kx) + bk sin(kx)) ,

x ∈ R , (n fest)

k=1

einen Vektorraum T über R bildet. Beweise ferner, daß (1, cos x, sin x, cos(2x), sin(2x), . . ., cos(nx), sin(nx)) eine Basis von T ist, also insbesondere dim T = 2n + 1 gilt.

Übung 2.16* (a) Zeige, daß alle reellen Polynome, die höchstens den Grad 10 haben und eine Nullstelle bei x = 1, einen Vektorraum über R bilden. Welche Dimension hat der Raum? Gib eine Basis dazu an! 26 Wobei die Polynome nur auf I betrachtet werden.

130

2 Vektorräume beliebiger Dimensionen

(b) Löse das gleiche Problem (wie unter (a)) für Polynome vom Höchstgrad 10, die wenigstens zwei Nullstellen haben, und zwar bei 1 und −1.

2.4.4

Direkte Summen, freie Summen

Direkte Summen: Es seien U1 , U2 , . . . , Um Unterräume des Vektorraums V über K, deren Vereinigung U1 ∪ U2 ∪ . . . ∪ Um den Raum V aufspannt. Man nennt dann V die Summe U1 + U2 + . . . + Um der Unterräume, d.h. es ist U1 + U2 + . . . + Um := Span(U1 ∪ U2 ∪ . . . ∪ Um ) . Gilt zusätzlich (U1 + . . . + Uk−1 + Uk+1 + . . . + Um ) ∩ Uk = {0}

für alle k = 1, . . . , m ,

(2.81)

so nennt man V die direkte Summe U1 , . . . , Um , und beschreibt dies durch V = U1 ⊕ U2 ⊕ . . . ⊕ Um . Im Falle zweier Unterräume, also V = U1 + U2 , bedeutet V = U1 ⊕ U2 einfach U1 ∩ U2 = {0}. Folgerung 2.11: Gilt V = U1 + U2 + . . . + Um (Ui Unterräume des Vektorraums V ), so sind folgende Aussagen äquivalent: (a) V = U1 ⊕ U2 ⊕ . . . ⊕ Um . (b) Jedes x ∈ V läßt sich eindeutig darstellen als x = u1 + u2 + . . . + um mit ui ∈ Ui für alle i = 1, . . . , m. (c) 0 = u1 + . . . + um (ui ∈ Ui ) ⇒ ui = 0 für alle i. Ist V endlichdimensional und V = U1 + . . . + Um , so ist (a) äquivalent zu (d) dim V = dim U1 + dim U2 + . . . + dim Um . Beweis: (a) ⇒ (c): Aus u1 +. . .+um = 0 (u ∈ Ui ) folgt u1 = −(u2 +. . .+um ) ∈ U2 +. . .+Um und ∈ U1 . Da wegen (a) U1 ∩ (U2 + . . . + Um ) = {0}, so u1 = 0; entsprechend u2 = u3 = . . . = um = 0. (c) ⇒ (b): Hat x zwei Darstellungen x = ui − ui = 0, d.h. ui = ui für alle i.

m $ i=1

ui =

m $ i=1

ui , so folgt

m $ i=1

(ui − ui ) = 0, also

(b) ⇒ (c): klar. (c) ⇒ (a): Sei u1 ∈ U1 ∩ (U2 + . . . + Um ), folglich u1 = u2 + . . . + um mit ui ∈ Ui . Somit 0 = −u1 + u2 + . . . + um ⇒ u1 = 0 ⇒ U1 ∩ (U2 + . . . + Um ) = {0}. Entsprechend gilt (2.81) für alle k ⇒ (a).

2.4 Vektorräume über beliebigen Körpern

131

(a) ⇔ (d): Fall m = 2: [V = U1 ⊕ U2 und [(a1 , . . . , as ) Basis von U1 , (b1 , . . . , bt ) Basis von U2 ]] ⇔ [(a1 , . . . , as , b1 , . . . , bt ) Basis von V (ai ∈ U1 , bi ∈ U2 )] ⇔ dim V = dim U1 + dim U2 . Für m > 2 folgt (a) ⇔ (d) durch vollständige Induktion.



Beispiel 2.26: Das folgende Beispiel macht klar, daß es sich bei direkten Summen im Grunde um etwas sehr naheliegendes handelt. Und zwar betrachten wir in Rn den Unterraum U1 der Vektoren u1 = [x1 , . . . , xs , 0,0, . . . , 0]T , deren Koordinaten xs+1 = . . . = xn = 0 sind. Entsprechend U2 , bestehend aus allen u2 = [0,0, ., ., 0, xs+1 , . . . , xn ]T . Für x = [x1 , . . . , xn ]T folgt damit die eindeutige Zerlegung ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ x1 x1 0 ⎢ .. ⎥ ⎢ .. ⎥ ⎢ .. ⎥ ⎢ . ⎥ ⎢.⎥ ⎢ . ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ xs ⎥ ⎢ xs ⎥ ⎢ 0 ⎥ ⎢ ⎥ ⎢ ⎥ = u1 + u2 , also U1 ⊕ U2 = Rn . ⎥ ⎢ x=⎢ ⎥=⎢ ⎥+⎢ ⎥ ⎢xs+1 ⎥ ⎢ 0 ⎥ ⎢xs+1 ⎥ ⎢ . ⎥ ⎢.⎥ ⎢ . ⎥ ⎣ .. ⎦ ⎣ .. ⎦ ⎣ .. ⎦ 0 xn xn Im Kn verläuft dies natürlich genauso. Dies gibt Anlaß zu folgender Konstruktion: Freie Summen Sind U1 , . . . , Um beliebige Vektorräume über K, so bildet die Menge der m-Tupel ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ u1 u1 + u 1 u1 λu1 u1 u1 ⎥ ⎢ ⎥ ⎢ ⎢ .. ⎥ ⎢ .. ⎥ ⎢ .. ⎥ ⎢ . . . ⎥ .. ⎦ , λ ⎣ .. ⎦ = ⎣ .. ⎦ , ⎣ . ⎦ (ui ∈ Ui ) , mit ⎣ . ⎦ + ⎣ . ⎦ = ⎣ um

um

u m

um + u m

um

λu m

einen Vektorraum V über K. Er heißt die freie Summe der Vektorräume U1 , . . . , Um , beschrieben durch V = U1  U2  . . .  Um . Auch für die Vektoren ui = Ui verwenden wir eine solche Schreibweise: ⎡ ⎤ u1 ⎢ .. ⎥ u1  . . .  um := ⎣ . ⎦ . um

132

2 Vektorräume beliebiger Dimensionen

Ui läßt sich bijektiv auf den folgenden Unterraum U i ⊂ V abbilden: ⎫ ⎧⎡ ⎤  ⎡ ⎤ 0  0 ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎢ ⎥  ⎢ . .⎥ ⎪ ⎪ ⎪ ⎪ ⎢ .. ⎥  ⎢ .. ⎥ ⎪ ⎪ ⎪ ⎪ ⎢ ⎥  ⎢ ⎥ ⎪ ⎪⎢ ⎥  ⎪ ⎪ ⎢0⎥ ⎬ ⎨⎢ 0 ⎥  ⎢ ⎥  ⎢ ⎥ ui ⎥ Ui = ⎢ ⎥  ui ∈ Ui ⎪ , durch ui  → ⎢ui ⎥ . ⎪⎢ ⎪ ⎪ ⎢ ⎥  ⎢0⎥ 0⎥ ⎪ ⎪ ⎪ ⎪ ⎢ ⎥ ⎪ ⎪⎢ ⎪ ⎪ ⎢ ⎥  ⎢.⎥ .. ⎪ ⎪ ⎪ ⎪  ⎣ ⎦ ⎣ .. ⎦ ⎪ ⎪ .  ⎪ ⎪ ⎭ ⎩  0 0 (Man sagt, Ui wird auf diese Weise in den Vektorraum V »eingebettet».) Es folgt V = U 1 ⊕. . .⊕ U m . Damit ist die freie Summe in eine direkte Summe überführt worden, und alle Eigenschaften direkter Summen können auf freie Summen übertragen werden. Beispiel 2.27: Die freie Summe R3  R2 besteht aus allen Vektoren der Form ⎡⎡ ⎤⎤ x1 ⎡ ⎤ ⎢⎣x2 ⎦⎥   x1 ⎢ ⎥ x4 ⎥ , mit ⎣x2 ⎦ ∈ R3 , x x=⎢ ∈ R2 . 3 ⎢ ⎥ x 5 ⎣ x4 ⎦ x3 x5 Wir lassen hier die inneren Klammern weg, schreiben also ⎡ ⎤ x1 ⎢x2 ⎥ ⎢ ⎥ 3 2 5 ⎥ x=⎢ ⎢x3 ⎥ , und damit R  R = R . ⎣x4 ⎦ x5 Allgemein also: Rn 1  Rn 2  . . .  Rn t = Rn 1 +n 2 +...+n t . Die freien und direkten Summen von Vektorräumen spielen bei direkten Summen von Matrizen eine Rolle (s. beispielsweise Abschn. 4.1). Übung 2.17* Es seien U , V Unterräume des endlichdimensionalen Vektorraumes W über K mit U + V = W . Beweise dim W = dim U + dim V − dim(U ∩ V ) . Anleitung: Konstruiere Basen BU , BV , BU ∩V , mit BU ∩V = BU ∩ BV .

2.4 Vektorräume über beliebigen Körpern

2.4.5

133

Lineare Abbildungen: Definition und Beispiele

Abbildungen von einem Vektorraum in den anderen, die Summen in Summen überführen und Produkte in Produkte, also die Struktur der Vektorräume berücksichtigen, sind von besonderem Interesse: Mit diesen »linearen Abbildungen« wollen wir uns im Folgenden beschäftigen. Definition 2.22: Es seien V und W zwei Vektorräume über dem gleichen Körper K. Eine Abbildung f : V → W heißt eine lineare Abbildung von V in W , wenn für alle x, y ∈ V und alle λ ∈ K folgendes gilt: (H1) (H2)

f (x + y) = f (x) + f ( y) f (λx) = λ f (x)

(Additivität) (Homogenität).

Man sagt auch: f ist eine strukturverträgliche Abbildung. Lineare Abbildungen heißen auch lineare Transformationen, lineare Operatoren oder (Vektorraum-)Homomorphismen. Alle diese Bezeichnungen bedeuten dasselbe. Aus (H1), (H2) folgt durch sukzessives Anwenden (H)

f

, n 

λk x k

k=1

=

n 

λk f (x k ) für alle x k ∈ V , λk ∈ K .

(2.82)

k=1

Umgekehrt folgt aus (H) sowohl (H1) (n = 2, λ1 , λ2 = 1) wie (H2) (n = 1), also gilt: (H) ⇔ ((H1) und (H2)). Die Eigenschaft (H) heißt Linearität von f . Beispiel 2.28: Lineare Abbildungen von Rn in Rm . Ist x = [x1 , . . . , xn ]T ein Vektor des Rn , so kann man ihm den Vektor y = [y1 , . . . , ym ]T aus Rm durch die Gleichung y1 =

n 

aik xk ,

i = 1, . . . , m

(2.83)

k=1

eindeutig zuordnen. Die so erklärte Abbildung f : Rn → Rm ist sicher linear. Sie ist durch das rechteckige Schema ⎡ ⎤ a11 · · · a1n ⎢ .. .. ⎥ (2.84) ⎣ . . ⎦ am1

· · · amn

der Zahlen aik vollständig bestimmt. Ein solches Schema nennt man eine reelle Matrix (symbolisiert durch einen großen, fett geschriebenen Buchstaben, z.B. A). Umgekehrt kann jede lineare Abbildung g : Rn → Rm durch eine Matrix der Form (2.84) nebst Gl. (2.83) beschrieben werden. Bezeichnet man nämlich die Bilder der Koordinateneinheitsvektoren ek =

134

2 Vektorräume beliebiger Dimensionen

[0, . . . , 0,1,0, . . . , 0]T ∈ Rn (mit 1 an k-ter Stelle) mit ak = [a1k , a2k , . . . , amk ]T (k = 1, . . . , n), n $ also g(ek ) = ak , so folgt für das Bild y eines Vektors x = xk ek ∈ R nach (2.82) k=1

y=g

, n 

x k ek

=

k=1

n 

xk g(ek ) =

k=1

n 

xk ak .

k=1

Schreibt man die Koordinaten der linken und rechten Seite der Gleichung hin, so entsteht gerade (2.83). Matrizen der Form (2.84) beschreiben also über (2.79) alle linearen Abbildungen von Rn in Rm . (Matrizen werden in Abschn. 3 ausführlich behandelt.) Es ist klar, daß in Kn (K beliebiger algebraischer Körper) alles genauso verläuft.

Fig. 2.8: Drehung im R2 .

Fig. 2.9: Additivität der Drehung. Fig. 2.10: Homogenität der Drehung, mit Fig. 2.9 zusammen also: Linearität.

Beispiel 2.29: (Drehungen der Ebene) Die Ebene R2 soll um 0 gedreht werden, und zwar um den Winkel ϕ, s. Fig. 2.8 (ϕ > 0: Drehung gegen den Uhrzeigersinn; ϕ < 0: mit dem Uhrzeigersinn). D.h. ein Ortsvektor     x r cos α x= 1 = x2 r sin α (r, α Polarkoordinaten von x) soll in     r cos(α + ϕ) y1 = y= r sin(α + ϕ) y2 überführt werden. Diese Zuordnung beschreiben wir durch y = f (x). Mit dem Additionstheorem von cos und sin (Abschn. 1.1.2) folgt y1 = r (cos α cos ϕ − sin α sin ϕ) = (cos ϕ)x1 − (sin ϕ)x2 y2 = r (cos α sin ϕ + sin α cos ϕ) = (sin ϕ)x1 + (cos ϕ)x2 ,

2.4 Vektorräume über beliebigen Körpern

y1 = (cos ϕ)x1 − (sin ϕ)x2 y2 = (sin ϕ)x1 + (cos ϕ)x2

.

135

(2.85)

Die Drehung wird also durch die Matrix   cos ϕ − sin ϕ sin ϕ cos ϕ beschrieben, und ist somit eine lineare Abbildung. Dies läßt sich aber auch unmittelbar geometrisch einsehen, s. Fig. 2.9, Fig. 2.10. Beispiel 2.30: (Drehungen im dreidimensionalen Raum) Eine Drehung im Raum R3 um den Winkel ϕ bzgl. einer Achse durch 0, die in Richtung von c ∈ R3 (|c| = 1) liegt, wird mit einer Orthogonalbasis (a, b, c) so beschrieben: x = ξ1 a + ξ2 b + ξ3 c (ξ1 = x · a, ξ2 = x · b, ξ3 = x · c) geht über in y = f (x) = (ξ1 cos ϕ − ξ2 sin ϕ)a + (ξ1 sin ϕ + ξ2 cos ϕ)b + ξ3 c .

(2.86)

Man erkennt die Analogie zum R2 , s. (2.85). Natürlich ist diese Drehung eine lineare Abbildung, wie man geometrisch an Hand der Figuren 2.8 bis 2.10 sieht, die den »Blick« in Richtung c zeigen. Lineare Abbildungen auf unendlichdimensionalen Vektorräumen lassen sich nicht so einheitlich beschreiben, wie es bei endlichdimensionalen Räumen möglich ist (s. Beispiel 2.26). Im Folgenden werden einige typische Beispiele angegeben. Beispiel 2.31: Die Differentiation einer Funktion f ∈ C 1 (I ) ordnet ihr die Funktion f ∈ C(I ) eindeutig zu. Diese Abbildung symbolisieren wir durch D, also D f = f . Zweifellos ist D : C 1 (I ) → C(I ) eine lineare Abbildung. Sie ist bekanntlich nicht eineindeutig, da D( f + c) = D f , wenn c eine konstante Funktion bezeichnet. Allgemeiner: Beispiel 2.32: Ein »linearer Differentialoperator« L definiert durch L( f ) = a0 + a1 f + a2 f + a3 f + . . . + an+1 f (n) für alle f ∈ C n (I ) (mit ai ∈ C(I )) ist eine lineare Abbildung L : C n (I ) → C(I ). Hier spielt die lineare Algebra in die Theorie der Differentialgleichungen hinein.

136

2 Vektorräume beliebiger Dimensionen

Beispiel 2.33: Durch die beiden »Integraloperatoren« .b (F( f ))(x) :=

K (x, t) f (t) dt ,

»Fredholm-Typ«27

K (x, t) f (t) dt ,

»Volterra-Typ«28

a

.x (T ( f ))(x) := a

werden lineare Abbildungen f : C[a, b] → C[a, b], und T : C[a, b] → C[a, b] definiert. K (x, t) wird dabei als (stückweise) stetig auf [a, b]2 vorausgesetzt. In der Theorie der Integralgleichungen spielen diese linearen Abbildungen eine große Rolle. Übung 2.18* Es sei f : R2 → R2 eine Drehung um ϕ = 25,3◦ (d.h. f (x) geht aus dem Ortsvektor x durch Drehung um 25,3◦ gegen den Uhrzeigersinn hervor). Gib die Matrix an, die diese Abbildung beschreibt.

2.4.6

Isomorphismen, Konstruktion linearer Abbildungen

Es seien im Folgenden V , W Vektorräume über demselben Körper K. Definition 2.23: Eine lineare Abbildung f : V → W heißt ein Isomorphismus,

wenn

f bijektiv ist29

Endomorphismus, Automorphismus,

wenn wenn

V = W ist f bijektiv und V = W ist.

Bemerkung: Gelegentlich spricht man auch von Epimorphismus, wenn f surjektiv ist, und Monomorphismus, falls f injektiv ist. Um nicht in einem Sumpf von Begriffen zu ertrinken, werden wir diese Begriffe nicht weiter verwenden. Zwei Vektorräume V, W über K heißen isomorph, in Zeichen V  W , wenn es einen Isomorphismus f : V → W gibt. Ist Z ein weiterer Vektorraum über K, so gelten die Regeln: V V,

V W ⇔W V,

V  W und W  Z ⇒ V  Z .

Auf Grund dieser Gesetze nennt man  eine Äquivalenzrelation. 27 Erik Ivar Fredholm (1866 – 1927), schwedischer Mathematiker. 28 Vito Volterra (1860 – 1940), italienischer Mathematiker und Physiker. 29 Die Begriffe injektiv, surjektiv, bijektiv sind in Beisp. 2.9, Abschn. 2.3.2 erklärt, wie auch ausführlicher in Burg/Haf/Wille (Analysis) [27], Abschn. 1.3.4, Def. 1.3 und Abschn. 1.3.5, letzter Absatz.

2.4 Vektorräume über beliebigen Körpern

137

Gilt V  W , so sagt man auch gelegentlich, W ist eine (isomorphe) Kopie von V . Dieser Ausdruck weist darauf hin, daß V und W nicht wesentlich verschieden sind. Satz 2.21: (Konstruktion linearer Abbildungen) Es seien V und W Vektorräume über K, wobei (a1 , . . . , an ) eine Basis von V ist und {b1 , . . . , bn } eine Teilmenge von W . Damit folgt: (I) Es gibt genau eine lineare Abbildung f : V → W mit f (ak ) = bk für alle k = 1, . . . , n. Sie wird gebildet durch , n n   λk ak := λk bk Konstruktion einer linearen Abbildung. (2.87) f k=1

k=1

(II) f ist genau dann injektiv, wenn b1 , . . . , bn linear unabhängig sind. (III) f ist genau dann ein Isomorphismus, wenn (b1 , . . . , bn ) eine Basis von W ist. Beweis: (I) Man sieht ohne Schwierigkeit, daß f eine »lineare Abbildung« ist, indem man (H1), (H2) nachweist. Die Eindeutigkeit folgt so: Ist g ein weiterer Homomorphismus mit g(ak ) = bk für n $ alle k, so folgt wegen (H), (letzter Abschnitt), für alle x = λk a k ∈ V : k=1

g(x) = g

, n  k=1

λk a k

=

n 

λk g(ak ) =

k=1

n 

λk bk = f (x) .

k=1

(II) Es sei f nicht injektiv. Dann existieren verschiedene x =

n $

λk a k , x =

k=1 = x ,

n $ k=1

λ k ak in V mit

f (x) = f (x ), d.h. f (x) − f (x ) = f (x − x ) = 0. Da x also z := x − x  = 0 ist, so n n $ $ folgt f (z) = 0 mit einem z  = 0 aus V . Es sei z = ζk ak , also 0 = f (z) = ζk bk = 0. Da k=1

k=1

nicht alle ζk = 0 sind (wegen z  = 0), sind damit die bk linear abhängig. — Sind umgekehrt die n $ b1 , . . . , bn als linear abhängig vorausgesetzt, so gibt es λi ∈ K (nicht alle 0), mit λi bi = 0. Für x :=

n $ i=1

λi ai folgt damit f (x) =

n $

i=1

λi bi = 0. Es ist also f (x) = 0 und f (0) = 0 mit

i=1

x  = 0. D.h. f ist nicht injektiv. Damit ist (II) bewiesen. — (III) folgt unmittelbar aus (II).



Bemerkung: Wir wollen die Konstruktionsvorschrift (2.87) für lineare Abbildungen von endlichdimensionalen Vektorräumen noch einmal hervorheben: Ordnet man den Basisvektoren eines Vektorraums V eindeutig Vektoren eines anderen Vektorraums W zu, so ist damit sofort eine lineare Abbildung gegeben (durch (2.87)). Auf diese Weise lassen sich alle linearen Abbildungen von V (mit dim V endlich) in W beschreiben. Die Dimension von W ist dabei beliebig, sie kann also auch ∞ sein. Dem Teil (III) in Satz 2.21 können wir noch folgende schöne Formulierung geben:

138

2 Vektorräume beliebiger Dimensionen

Folgerung 2.12: Zwei endlichdimensionale Vektorräume V , W über K sind genau dann isomorph, wenn dim V = dim W ist. Insbesondere gelangen wir damit zu der nützlichen Folgerung 2.13: Jeder Vektorraum V über K mit endlicher Dimension n ∈ N ist isomorph zu Kn . Ausführlich: Ist B = (a1 , . . . , an ) eine Basis von V , so wird jedem Vektor x = n $ xk ak ∈ V (mit xk ∈ K) der Vektor k=1

⎡ ⎤ x1 ⎢ .. ⎥ x B = ⎣ . ⎦ ∈ Kn xn zugeordnet. Die dadurch erklärte Abbildung f (x) = x B ( f : V → Kn ) ist ein Isomorphismus. x B heißt auch der numerische Vektor zu x bzgl. der Basis B. Insbesondere im Fall K = R macht man viel Gebrauch hiervon, da man den Rn so gut kennt. Die folgenden Beispiele geben Isomorphismen an, besonders in Verbindung mit Satz 2.21 (III). Beispiel 2.34: Zwei Ebenen E 1 , E 2 im R3 , die durch 0 gehen, sind isomorphe Vektorräume über R. Denn sind x = λ1 a1 + λ2 a2 ,

y = µ1 b1 + µ2 b2

die Parameterdarstellungen von E 1 und E 2 ((a1 , a2 ) Basis von E 1 , (b1 , b2 ) Basis von E 2 ), so wird durch folgende Abbildung eine Isomorphie von E 1 auf E 2 vermittelt: f (λ1 a1 + λ2 a2 ) := λ1 b1 + λ2 b2 . Beispiel 2.35: Der Lösungsraum V der linearen Differentialgleichung y (n) = a1 y + a2 y + . . . + an y (n−1) ist n-dimensional. Er ist zum Rn isomorph, denn ist y1 , . . . , yn ein Fundamentalsystem30 von Lösungen (d.h. eine Basis von V ), so ist folgende Abbildung ein Isomorphismus von V auf Rn : ⎡ ⎤ , n λ1 n   ⎢ .. ⎥ f λi yi := λi ei = ⎣ . ⎦ . i=1

i=1

λn

30 s. Burg/Haf/Wille (Band III) [24], Abschn. 2.4

2.4 Vektorräume über beliebigen Körpern

2.4.7

139

Kern, Bild, Rang

V, W seinen Vektorräume über K. Definition 2.24: Ist f : V → W eine lineare Abbildung, so sind Kern, Bild und Rang dieser Abbildung erklärt durch Kern f = Menge aller x ∈ V mit f (x) = 0 Bild f = Menge aller f (x) mit x ∈ V Rang f = dim Bild f .

31

Satz 2.22: f : V → W sei eine lineare Abbildung. Damit gilt (a) Kern f ist ein Unterraum von V (b) Bild f ist ein Unterraum von W (c) f ist genau dann injektiv, wenn Kern f = {0} ist. Beweis: (a), (b) überlegt sich der Leser leicht selbst. Zu (c): Es sei Kern f = {0}. Angenommen, f ist nicht injektiv. Dann gibt es zwei Vektoren x 1 , x 2 ∈ V mit x 1  = x 2 und f (x 1 ) = f (x 2 ). Daraus folgt f (x 1 ) − f (x 2 ) = 0, also f (x 1 − x 2 ) = 0, also f (z) = 0 mit z = x 1 − x 2  = 0, also z ∈ Kern f , was der Voraussetzung widerspricht. Also ist f injektiv. — Ist umgekehrt f als injektiv vorausgesetzt, so kann f (x) = 0 nur die Lösung 0 haben, also folgt Kern f = {0}.  Damit stoßen wir zum krönenden Satz vor: Satz 2.23: (Dimensionsformel) Für jede lineare Abbildung f : V → W gilt: dim Kern f + dim Bild f = dim V

32 .

(2.88)

Beweis: 1. Fall: Die Dimensionen von Kern f und Bild f sind beide endlich. Ist Kern f = {0}, so folgt die Behauptung aus Satz 2.22 (c). Ist Bild f = {0}, so ist Kern f = V , also (2.88) auch richtig. Wir nehmen darum im Folgenden Kern f  = {0} und Bild f  = {0} an. Ferner seien a1 , . . . , aq , b1 , . . . , b p ∈ V gegeben mit: (a1 , . . . , aq ) ist eine Basis von Kern f ( f (b1 ), . . . , f (b p )) ist eine Basis von Bild f .

(2.89)

31 Bild f ist also nichts anderes als der Wertebereich f (V ) der Abbildung, s. Burg/Haf/Wille (Analysis) [27], Abschn. 1.3.5, Def. 1.6. 32 Mit ∞ wird in diesem Fall so gerechnet: ∞ + ∞ = ∞, ∞ + n = n + ∞ = ∞ für alle n ∈ N0 .

140

2 Vektorräume beliebiger Dimensionen

Behauptung: a1 , . . . , aq , b1 , . . . , b p ist eine Basis von V (womit die Dimensionsformel gilt). q p $ $ Beweis der Behauptung: a1 , . . . , aq , b1 , . . . , b p sind linear unabhängig, da λi ai + µi bi = 0 nach Anwendung von f auf

p $

i=1

i=1

µi f (bi ) = 0 führt, also µi = 0 für alle i = 1, . . . , p, folglich

i=1

q $

λi ai = 0 und damit auch λi = 0 für alle i = 1, . . . , q.

i=1

Ist ferner x ∈ V beliebig, so gilt f (x) ∈ Bild f , also f (x) =

p $

βi f (bi ) (mit βi ∈ K) und

i=1

daher 0 = f (x) −

p 

, βi f (bi ) = f

x−

i=1

d.h. x −

p $

βi bi

,

i=1

βi bi ∈ Kern f , also x −

i=1

p 

p $ i=1

βi bi =

q $

αk ak , d.h. x ist eine Linearkombination der

k=1

ai , bk . Die a1 , . . . , aq , b1 , . . . , b p , spannen also V auf und bilden somit eine Basis von V . 2. Fall: dim K er n f = ∞. Wegen Kern f ⊂ V ist dann auch dim V = ∞ und die Dimensionsformel (2.88) gilt. 3. Fall: dim Bild f = ∞. Angenommen, die Dimension von V ist endlich, und (a1 , . . . , an ) sei eine Basis von V . Dann spannen die Vektoren f (ai ) = bi (i = 1, . . . , n) Bild f auf (nach Satz 2.21 (I)), also folgt dim Bild f < dim V = n, im Widerspruch zu dim Bild f = ∞. Folglich gilt dim V = ∞ und damit die Dimensionsformel (2.88).  Folgerung 2.14: (Äquivalenz von Injektivität und Surjektivität) Es sei f : V → W eine lineare Abbildung, wobei die Vektorräume V und W die gleiche endliche Dimension n haben. Damit gilt: f ist genau dann injektiv, wenn f surjektiv ist. Beweis: f injektiv ⇔ Kern f = {0} (s. Satz 2.22 (c)) ⇔ dim Kern f = 0 ⇔ dim Bild f = n (wegen der Dimensionsformel (2.88)) ⇔ Bild f = V ⇔ f surjektiv.  Bemerkung: Zusammenhang mit linearen Gleichungssystemen. Ein lineares Gleichungssystem yi =

n 

aik xk ,

i = 1, . . . , m ,

(2.90)

k=1

mit gegebenen aik ∈ K, yi ∈ K und gesuchten xk kann als lineare Abbildung f : Kn → Km interpretiert werden, wobei jedem x = [x1 , . . . , xn ]T ein y = [y1 , . . . , ym ]T zugeordnet wird.

2.4 Vektorräume über beliebigen Körpern

141

Lösbarkeit liegt genau dann vor, wenn y ∈ Bild f ist, und eindeutige Lösbarkeit genau dann, wenn zusätzlich dim Bild f = dim V = n (d.h. dim Kern f = 0). Diese Aussagen spiegeln genau das Rangkriterium Satz 2.10, Abschn. 2.2.5, in anderer Formulierung wieder. Die Folgerung 2.14, die besagt: »Entweder bijektiv, oder weder injektiv noch surjektiv«, entspricht im Fall der Gleichungssysteme der Folgerung 2.5, Abschn. 2.2.4: Im Fall n = m ist das Gleichungssystem (2.90) entweder für jedes y ∈ Kn eindeutig lösbar, oder für keins. Zur praktischen Lösung, auch bei beliebigen Körpern K, benutzt man aber in den allermeisten Fällen den guten alten Gauß-Algorithmus, der in K genau wie in R verläuft (wenn man die Pivotierung nach Größe von Absolutbeträgen außer Acht läßt, sondern sich mit Diagonalelementen  = 0 begnügt). Übung 2.19* Durch y1 = 6x1 +4x2 −10x3 , y2 = −9x1 −6x2 +15x3 ist eine lineare Abbildung f : R3 → R2 gegeben. Berechne Kern f und Bild f , d.h. gib für beide Räume Basen an. Welche Werte haben dim Kern f und Rang f ? Rechne die Dimensionsformel (2.84) für dieses Beispiel nach.

Übung 2.20* Durch L(y) = y − 2y ist ein »Differentialoperator« für alle y ∈ C 1 (R) erklärt. L : C 1 (R) → C(R) ist eine lineare Abbildung (überprüfe das!). Welche Funktionen y ∈ C 1 (R) liegen im Kern von L?

2.4.8

Euklidische Vektorräume, Orthogonalität

Definition 2.25: Es sei V ein Vektorraum über R. Eine Vorschrift, die jedem Paar (x, y) mit x, y ∈ V genau eine reelle Zahl r zuordnet, beschrieben durch r = x · y, heißt ein inneres Produkt auf V , wenn folgende Gesetze erfüllt sind: Für alle x, y, z ∈ V und alle λ, µ ∈ R gilt (I) (II) (III) (IV)

x· y= y·x Kommutativgesetz (x + y) · z = x · z + y · z Distributivgesetz λ(x · y) = (λx) · y = x · (λ y) Assoziativgesetz x = 0 ⇔ x · x > 0 positive Definitheit.

√ Man nennt |x| := x · x die Länge (den Betrag, die euklidische Norm) von x. Für x · x schreibt man kürzer x 2 . Ist auf V ein inneres Produkt wie oben erklärt, so nennt man V einen euklidischen Vektorraum (oder Prä-Hilbertraum). Wie in Abschn. 2.1.2, Satz 2.1 (V) – (IX) beweist man, nur unter Verwendung von (I) – (IV)

142

2 Vektorräume beliebiger Dimensionen

Folgerung 2.15: Ist V ein euklidischer Vektorraum, so gilt für alle x, y ∈ V und alle λ ∈ R |λx| = |λ||x| ,

(V)

(VI)

(VII) |x + y| ≤ |x| + | y| , (IX) |x| = 0 ⇔ x = 0 .

(VIII)

|x · y| ≤ |x|| y| , |x − y| ≥ ||x| − | y|| ,

Beispiel 2.36: Für alle f, g ∈ C([a, b]) ist folgendermaßen ein inneres Produkt erklärt .b f ·g=

f (x)g(x) dx .

(2.91)

a

Beispiel 2.37: Ist (a1 , . . . , an ) eine Basis des Vektorraums V über R, und sind x=

n  i=1

xi ai ,

y=

n 

yi ai

(xi , yi ∈ R)

i=1

beliebig aus V , so ist durch x · y =

n $

xi yi zweifellos ein inneres Produkt von V gegeben. Auf

i=1

diese Weise lassen sich auch im Rn verschiedene innere Produkte einführen. Definition 2.26: Ist V ein euklidischer Vektorraum, so erklärt man den Winkel zwischen zwei Elementen a, b ∈ V , a  = 0, b  = 0, durch ϕ = (a, b) := arccos

a·b . |a| · |b|

(2.92)

Ist a = 0 oder b = 0, so kann (a, b) jede beliebige Zahl aus [0, π] bedeuten. Man sagt, die Elemente a, b ∈ V stehen rechtwinklig (orthogonal) aufeinander: a ⊥ b, wenn a · b = 0 ist. Damit folgen Pythagoras (a + b)2 = a2 + b2 ⇔ a · b = 0, und Cosinussatz (a − b)2 = a2 + b2 − 2|a| · |b| cos (a, b) durch schlichtes Ausmultiplizieren (wie in Abschn. 2.1.4). Orthonormalsystem, Orthonormalbasis und orthogonales Komplement eines Vektorraumes werden wie in Abschn. 2.1.4 definiert (man hat dort nur V statt Rn zu setzen). Ebenso funktioniert in einem endlichdimensionalen euklidischen Vektorraum V das Schmidtsche Orthogonalisierungsverfahren, und es gelten Satz 2.6, Satz 2.7 und Folgerung 2.3 aus Abschn. 2.1.4 entsprechend (man ersetze dort einfach Rn durch V ).

2.4 Vektorräume über beliebigen Körpern

143

Übung 2.21: Beweise, daß (2.91) ein inneres Produkt in C([a, b]) beschreibt, d.h. weise nach, daß alle Eigenschaften (I) – (IV) in Definition 2.25 erfüllt sind.

Übung 2.22* (a) Welchen Winkel bilden sin(kx) und cos(nx) (n, k ∈ N, n = k) in C([0,2π]) miteinander, wenn das innere Produkt entsprechend (2.91) erklärt ist. (b) Welchen Winkel bilden f (x) = x und g(x) = x 2 in diesem Raum miteinander?

Übung 2.23* Wende auf die Polynome f 0 (x) = 1, f 1 (x) = x, f 2 (x) = x 2 in C([−1,1]) das Schmidtsche Orthogonalisierungsverfahren an.

Übung 2.24* Zeige: Zu jeder linearen Abbildung f : Rn → R gibt es einen Vektor v ∈ Rn mit f (x) = v · x für alle x ∈ Rn .

Übung 2.25: Es sei | f | =



f · f für f ∈ C([a, b]) (inneres Prod. wie in (2.91)) und  f ||∞ := sup | f (x)|. x∈[a,b]

(a) Zeige: lim  f n ∞ = 0 ⇒ lim | f n | = 0 . n→∞

n→∞

(b) Zeige, daß die Umkehrung nicht gilt. D.h. gib eine Funktionenfolge ( f n ) aus C([a, b]) an mit | f n | → 0 für n → ∞, aber nicht  f n ∞ → 0 für n → ∞!

2.4.9

Ausblick auf die Funktionalanalysis

33 Die

Funktionalanalysis verknüpft Analysis und lineare Algebra. Insbesondere die Funktionenräume werden dabei wichtig. — Wir beginnen mit einer Verallgemeinerung des euklidischen Raumes: Definition 2.27: Ein Vektorraum V über R (oder C) heißt ein normierter linearer Raum, wenn zu jedem x ∈ V eine nichtnegative reelle Zahl erklärt ist, so daß Folgendes für alle x, y ∈ V und λ ∈ R (oder λ ∈ C) gilt: λx = |λ|x ,

x + y ≤ x +  y ,

x heißt die Norm (oder Länge) von x. 33 Ausführlich beschrieben in Burg/Haf/Wille (Partielle Dgl.) [25]

x = 0 ⇔ x = 0 .

(2.93)

144

2 Vektorräume beliebiger Dimensionen

Man sieht, jeder euklidische Raum ist auch ein normierter linearer Raum (mit x := |x|). Umgekehrtes braucht nicht zu gelten. Das wichtigste Beispiel eines normierten linearen Raumes ist C([a, b]) mit der Norm  f  :=  f ∞ = sup | f (x)| . x∈[a,b]

Man weist die Normgesetze (2.93) leicht nach. Mit√ dieser Norm ist C([a, b]) kein euklidischer Raum, d.h. es gibt kein inneres Produkt mit  f  = f · f in C([a, b]). Mit der Analysis wird der Zusammenhang folgendermaßen hergestellt: Man betrachtet in einem normierten Raum V (unendliche) Folgen (an )n∈N , kurz (an ) geschrieben. Das Element a heißt Grenzwert von (an ), wenn an − a → 0

für n → ∞

gilt. In diesem Falle sagt man, (an ) konvergiert gegen a. (an ) heißt eine Cauchy-Folge, wenn zu jedem ε > 0 ein Index n 0 ∈ N existiert, so daß für alle an , am mit n, m ≥ n 0 gilt: an − am  < ε . (Vgl. Cauchysches Konvergenzkriterium, Burg/Haf/Wille (Analysis) [27], Abschn. 1.4.6.) Definition 2.28: (a) Ein normierter linearer Raum heißt vollständig, wenn jede Cauchy-Folge aus dem Raum gegen einen Grenzwert in diesem Raum konvergiert. (b) Ein vollständiger normierter linearer Raum heißt Banachraum. (c) √ Ein vollständiger euklidischer Raum heißt Hilbertraum (mit der Norm x = x · x). Natürlich ist Rn ein Hilbertraum und damit auch ein Banachraum. Anspruchsvollere Beispiele sind folgende: Beispiel 2.38: C([a, b]) ist ein Banachraum bzgl.  f ∞ . (Denn ist ( f n ) aus C([a, b]) eine Cauchy-Folge, so ist ( f n ) gleichmäßig konvergent und hat somit einen Grenzwert f ∈ C[a, b] (nach Burg/Haf/Wille (Analysis) [27], Abschn. 5.1.1, Satz 5.1 und Burg/Haf/Wille (Analysis) [27], Abschn. 5.1.2, Satz 5.2). Beispiel 2.39: C k ([a, b]), die Menge der k-mal stetig differenzierbaren Funktionen f : [a, b] → R ist bzgl. f =

k 

sup | f (i) (x)|

i=0 x∈[a,b]

( f (i) i-te Ableitung , f (0) = f )

2.4 Vektorräume über beliebigen Körpern

145

ein Banachraum. (Dies folgt aus Burg/Haf/Wille (Analysis) [27], Abschn. 5.1.2, Satz 5.3 durch vollständige Induktion.) Beispiel 2.40: Der Folgenraum  p ( p > 1), erklärt in Beispiel 2.24, Abschn. 2.4.2, ist ein Banachraum mit der in Beispiel 2.2.4 angegebenen Norm |a| p (= a). (Für den Nachweis der Normgesetze, insbesondere der Dreiecksungleichung |ab| p ≤ |a| p + |b| p und der Vollständigkeit wird auf die Literatur über Funktionalanalysis verwiesen (z.B. [76], Kap. II § 4, S. 56 – 57). Spezialfall: p = 2: Der Raum 2 ist ein Hilbertraum mit dem in Beispiel 2.23, Abschn. 2.4.2 erklärten inneren Produkt. 2 kann als der einfachste unendlichdimensionale Hilbertraum angesehen werden. (Entsprechend werden Räume  p aus komplexen Zahlenfolgen gebildet.) Beispiel 2.41: Die Menge L p [a, b] aller Funktionen f : [a, b] → R, für die das folgende Integral existiert: % & b .b &. & p p | f (x)| dx stellt bzgl.  f p := ' | f (x)| p dx ( p ≥ 1) a

a

und den üblichen Operatoren + und λ · (λ ∈ R) stellt bei Funktionen einen Banachraum dar. Hierbei sind die oben auftretenden Integrale im Sinne von Lebesgue34 zu verstehen (s. hierzu beispielsweise [64] oder [75]). Wir heben ausdrücklich hervor: Würde man in C[a, b] die obige  ·  p -Norm unter Verwendung des bekannten Riemann-Integrals (s. Burg/Haf/Wille (Analysis) [27], Abschn. 4.1.3) einführen, dann käme man zwar zu einem normierten Raum, aber dieser Raum wäre nicht vollständig. Der Spezialfall p = 2 ist von besonderer Bedeutung, weil L 2 [a, b] ein Hilbertraum ist. In der Theorie der Fourierreihen spielt der Raum der 2π-periodischen und über dem Intervall [0,2π ] im Sinne von Lebesgue quadratisch integrierbaren Funktionen eine besondere Rolle. Ist nämlich f eine solche Funktion und ist

 ∞ a0  (ak cos(kx) + bk sin(kx)) + 2 k=1

die Fourier-Reihe von f , dann kann man ihr die Folge c f = (a0 , a1 , b1 , a2 , b2 , . . .)

34 Henri Lebesgue (!875 – 1941), französischer Mathematiker

146

2 Vektorräume beliebiger Dimensionen

der Fourier-Koeffizienten zuordnen: 1 ak = π bk =

1 π

.π f (t) cos(kt) d t ,

k = 0,1,2, . . .

f (t) sin(kt) d t ,

k = 1,2, . . . .

−π .π −π

Es läßt sich zeigen, daß die Reihe a02 +

∞ 

(ak2 + bk2 )

k=1

konvergiert und mit  f 22 übereinstimmt. Mehr noch: Die Zuordnung f  → c f , symbolisiert durch F( f ) := c f , ist ein Isomorphismus (s. Abschn. 2.4.6) F : L 2 [0, π] → 2 . Damit spiegelt der Raum 2 alle Fourier-Reihen von 2π -periodischen Funktionen aus L 2 [0,2π ] wieder und ist somit ein brauchbares Hilfsmittel zum Studium dieser Reihen. Bemerkung: Die Funktionenräume C k (I ), L p (I ) und andere spielen bei Differentialgleichungen, Integralgleichungen und Fourier-Reihen eine wichtige Rolle. Im Teil »Funktionalanalysis« von Burg/Haf/Wille (Partielle Dgl.) [25] wird ausführlich darauf eingegangen. Ergänzend wird der Leser auf die Literatur über Funktionalanalysis und Differentialgleichungen verwiesen (z.B. [1], [30], [64], [76], [90], [148]). Übung 2.26* Entspanne dich!

3

Matrizen

Matrizen bilden ein fundamentales Hilfsmittel der linearen Algebra. In diesem Abschnitt werden sie erklärt, ihre Eigenschaften untersucht und ihre Zusammenhänge mit linearen Gleichungssystemen, Determinanten, linearen Abbildungen und Eigenwertproblemen erläutert.

3.1

Definition, Addition, s-Multiplikation

3.1.1

Motivation

Bei einem linearen Gleichungssystem a11 x1 + a12 x2 + . . . + a1n xn = b1 a21 x1 + a22 x2 + . . . + a2n xn = b2 .. .. .. .. . . . . am1 x1 + am2 x2 + . . . + amn xn = bm (aik , bi gegeben, xk gesucht) fällt die rechteckige Anordnung der aik ins Auge.1 Man kann die aik , wie in Fig. 3.1 skizziert, zu einem rechteckigen Schema zusammenfassen. Schemata dieser Art — Matrizen genannt — werden im Folgenden genauer unter die Lupe genommen. Auch in anderen Zusammenhängen sind uns rechteckige Zahlenschemata schon begegnet, z.B. bei zwei- und dreireihigen Determinanten (Abschn. 1.1.7, 1.2.3), bei linearen Abbildungen (Abschn. 2.4.5, Beisp. 2.28) oder beim Basiswechsel (Abschn. 2.4.3, (2.78)). Hinzu kommen später die Eigenwertprobleme ( s. folgende Abschn. 3.6ff), die in Technik und Physik meistens mit Schwingungsproblemen zusammenhängen. Mehr noch, die Lösung von Eigenwertproblemen mit Hilfe von Matrizen macht die Untersuchung von Schwingungen, insbesondere ihr Dämpfungs-oder Aufschaukelungsverhalten, erst möglich. Die Verhinderung von Resonanzkatastrophen, z.B. wie das »Flattern« bei Flugzeugen, ist daher ein bedeutendes Anwendungsgebiet der Eigenwerttheorie, siehe dazu [39], [61]. All diese Problemkreise lassen sich mit der Matrizenrechnung geschlossen und übersichtlich behandeln. Dies ist Grund genug, sich mit den so einfach aussehenden rechteckigen Zahlenschemata genauer zu befassen.2 3.1.2

Grundlegende Begriffsbildung

Definition 3.1: Unter einer reellen Matrix A vom Format (m, n) — kurz (m, n)-Matrix — verstehen wir ein rechteckiges Schema aus reellen Zahlen aik (i = 1, . . . , m; k = 1, . . . n), wie 1 Die Berechnung der Lösungen mit dem Gaußschen Algorithmus wurde schon in Abschn. 2.2 beschrieben. 2 In geraffter Form sind reelle Matrizen auch in Burg/Haf/Wille (Analysis) [27], Abschn. 6.1.5 beschrieben.

148

3 Matrizen

in Fig. 3.1 angegeben. Man beschreibt sie durch A = [aik ]1≤i≤m

oder

A = [aik ]m,n .3

1≤k≤n

Die Zahlen aik nennen wir die Elemente oder Eintragungen der Matrix. Zwei Matrizen A = [aik ]m,n und B = [bik ] p,q sind genau dann gleich: A = B, wenn m = p, n = q und aik = bik für alle i = 1, . . . , m, k = 1, . . . , n gilt. (Anschaulich: Die Schemata von A und B sind deckungsgleich.) ⎡

a11 ⎢ a21 ⎢ A=⎢ . ⎣ .. am1 

a12 a22

··· ···

am2 · · ·  n Spalten

⎤⎫ a1n ⎪ ⎪ ⎪ ⎬ a2n ⎥ ⎥ m Zeilen .. ⎥ ⎪ . ⎦⎪ ⎪ ⎭ amn 

Fig. 3.1: Matrix

Bemerkung: Allgemeiner können die Elemente aik einer Matrix auch aus dem Körper C der komplexen Zahlen sein (man spricht dann von komplexen Matrizen), oder gar aus einem beliebigen algebraischen Körper K (s. Abschn. 2.3.5). Wir beginnen die Einführung der Matrizenrechnung jedoch mit reellen Matrizen, da sie für die Anwendungen am wichtigsten sind, manches beim ersten Lesen dadurch vereinfacht, und alles Wesentliche trotzdem klar wird. Man erkennt später, daß für Matrizen mit Elementen aus C oder einem beliebigen Körper K alles analog verläuft. Geringfügige Zusätze, die beim Arbeiten mit komplexen Matrizen auftreten, werden mit leichter Hand hinzugefügt. Weitere Bezeichnungen: Im Matrix-Schema, (s. Fig. 3.1), bilden die nebeneinander stehenden Elemente ai1 , ai2 , . . . , ain die i-te Zeile (i = 1, . . . , m), und die untereinander stehenden Elemente a1k , a2k , . . . , amk . die k-te Spalte (k = 1, . . . , n). m ist die Zeilenzahl und n die Spaltenzahl der Matrix. Das Paar aus Zeilenzahl und Spaltenzahl bildet, wie schon erwähnt, das Format der Matrix. Beim Element aik heißt i der Zeilenindex und k der Spaltenindex. aik befindet sich im »Schnittpunkt« der i-ten Zeile und der k-ten Spalte, (s. Fig. 3.2). Wenn eine Matrix genauso viele Zeilen wie Spalten aufweist, nennt man sie eine quadratische Matrix. Zur Unterscheidung spricht man bei beliebigen Matrizen auch von rechteckigen Matrizen. Die Menge aller reellen Matrizen vom Format (m, n) bezeichnen wir mit Mat(m, n; R). Im Falle m = n schreibt man auch einfach Mat(n; R). Definition 3.2: (a) Eine Matrix, deren Elemente sämtlich 0 sind, heißt Nullmatrix und wird einfach mit 0 bezeichnet. (Augenfällig ist sie in Fig 3.3 skizziert 4 .) 3 Auch runde Klammern werden viel verwendet: A = (aik )m,n . 4 Eine Verwechslung mit anderen Bedeutungen des überlasteten Symbols 0 tritt normalerweise nicht auf, da aus dem Zusammenhang so gut wie immer klar ist, um welche Null es sich handelt. Aus diesem Grunde kann auf Format-

3.1 Definition, Addition, s-Multiplikation



a11

⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣ am1

···

···

a1n

···

amn

aik ···

149

⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ i-te Zeile ⎦

k-te Spalte Fig. 3.2: Schnittpunkt von Zeile und Spalte

(b) Die Matrix in Fig. 3.4 heißt n-reihige Einheitsmatrix (oder Einsmatrix). Sie läßt sich kürzer so darstellen:  1 falls i = k E = [δik ]n,n mit dem Kronecker-Symbol δi,k := . (3.1) 0 falls i  = k (c) Ist A = [aik ]m,n eine beliebige Matrix, so ist − A = [−aik ]m,n die zugehörige negative Matrix. (d) Die Hauptdiagonale einer Matrix A = [a jk ]m,n besteht aus den Elementen a11 , a22 , a33 , . . . , att (mit t = min{m, n}).

Fig. 3.3: Nullmatrix

3.1.3

Fig. 3.4: Einheitsmatrix

Addition, Subtraktion und s-Multiplikation

Definition 3.3: Es seien A = [aik ]m,n und B = [bik ]m,n zwei beliebige reelle Matrizen gleichen Formates. Addition (Summe), Subtraktion (Differenz) und s-Multiplikation5 (s-Produkt) Angaben bei der Nullmatrix verzichtet werden. 5 Auch Ausdrücke wie »Multiplikation mit Skalaren«, »skalare Multiplikation« und äußere Multiplikation bzgl. R« sind dafür gebräuchlich.

150

3 Matrizen

bei Matrizen werden folgendermaßen definiert: Addition: Subtraktion: s-Multiplikation (Multiplikation mit Skalaren):

A + B := [aik + bik ]m,n , A − B := [aik − bik ]m,n , λ A := [λaik ]m,n mit λ ∈ R .

Figur 3.5 verdeutlicht diese Operationen und zeigt, daß dabei »elementweise« vorgegangen wird. ⎡

a11 ± b11 ⎢ .. A± B =⎣ . am1 ± bm1

··· ···

⎤ a1n ± b1n ⎥ .. ⎦ .

amn ± bmn



λa11 ⎢ . λ A = ⎣ .. λam1

··· ···

⎤ λa1n .. ⎥ . ⎦ λamn

Fig. 3.5: Addition, Subtraktion und s-Multiplikation von Matrizen.

Beispiel 3.1: Mit



⎤ 7 14 A = ⎣ 3 −1⎦ , 19 0 ⎡ ⎤ 8 17 A + B = ⎣−10 1 ⎦ , 28 2



⎤ 1 3 B = ⎣−13 2⎦ folgt: 9 2 ⎡ ⎤ ⎡ 6 11 14 A − B = ⎣16 −3⎦ , 2 A = ⎣ 6 10 −2 38

⎤ 28 −2⎦ . 0

Satz 3.1: (Rechenregeln) Für beliebige (m, n)-Matrizen A, B, C mit Elementen aus R gilt: (A1) A + (B + C) = ( A + B) + C , (A2) (A3) (A4)

A + B = B + A, A + 0 = A, A + (− A) = 0 ,

Assoziativgesetz für +, Kommutativgesetz für +, Neutralität der Nullmatrix, Matrix und ihr Negatives annullieren sich.

Sind λ, µ beliebige Skalare aus R, so gilt ferner (S1) (S2) (S3) (S4)

(λ + µ) A = λ A + µ A , λ( A + B) = λ A + λB , (λµ) A = λ(µ A) , 1A = A .

Distributivgesetze, Assoziativgesetz für s-Multiplikation,

Die Gültigkeit der Regeln geht unmittelbar aus der Definition der Summe und der s-Multiplikation hervor.

3.1 Definition, Addition, s-Multiplikation

151

Bemerkung: Die in Satz 3.1 aufgelisteten Regeln zeigen, daß Mat(m, n; R), bezüglich der eingeführten Addition und s-Multiplikation, einen linearen Raum über R bildet. Die folgenden Matrizen ergeben eine Basis dieses Raumes:  1 , wenn r = i und s = k, (r,s) (r,s) E r s = [eik ]m,n mit eik = (r = 1, . . . , m; s = 1, . . . , n) 0 , sonst. (E r s hat nur im Kreuzungspunkt der r -ten Zeile und der s-ten Spalte eine 1, während alle anderen Elemente der Matrix Null sind. Mit E r s läßt sich nämlich jede reelle Matrix A = [aik ]m,n als n m   Summe ar s E r s schreiben, wobei die E r s (r = 1, . . . , m; s = 1, . . . , n) zweifellos linear r =1 s=1

unabhängig sind. Da es genau mn Matrizen E r s gibt, hat der Raum Mat(m, n; R) die Dimension mn. Folglich ist er zu Rmn isomorph (s. Abschn. 2.4.6, Folg. 2.13). Bemerkung: Die große Verbreitung, die die Matrizen in den unterschiedlichsten Anwendungsbereichen erfahren haben, beruhen nicht zuletzt darauf, daß eine Reihe technischer Konzeptionen sich unmittelbar durch Matrix-Operationen beschreiben lassen. Bezeichnend für diese Aussage sind die Zusammenschaltungen bestimmter elektrischer Bauteile.

Fig. 3.6: Parallelschaltung von Vierpolen

Beispiel 3.2: Für die in Fig. 3.6 dargestellte Parallelschaltung zweier Vierpole mit den Impedanzmatrizen     Z 11 Z 12 Z 11 Z 12 und Z := Z := Z 21 Z 22 Z 21 Z 22 gelten die Übertragungsgleichungen: U1 = Z 11 J1 + Z 12 J2 , U1 = Z 11 J1 + Z 12 J2 ,

U2 = Z 21 J1 + Z 22 J2 , U2 = Z 21 J1 + Z 22 J2 .

152

3 Matrizen

, Z Widerstände.) Unter Berücksichtigung von (Ui , Ui Spannungen; Ji , Ji Stromstärken; Z ik ik J1 = J1 , J2 = J2 und J1 = J1 , J2 = J2 (s. Fig. 3.6), sowie U1 = U1 + U1 und U2 = U2 + U2 kommt man nach Addition der Gleichungen der vorhergehenden Systeme zu der Übertragungsgleichung für den (gestrichelt gezeichneten) Gesamt-Vierpol: U1 = (Z 11 + Z 11 )J1 + (Z 12 + Z 12 )J2 , U2 = (Z 21 + Z 21 )J1 + (Z 22 + Z 22 )J2 .

Daraus liest man folgende Gesamtimpedanz-Matrix ab:   + Z Z 11 + Z 11 Z 12 12 = Z + Z . Z= + Z Z 21 21 Z 22 + Z 22

Übung 3.1: Es seien die folgenden Matrizen gegeben ⎡ ⎤

3 1 0 3 2 ⎢ ⎥ A=⎣ 4 9 6⎦ , B = 9 −1 −2 −7 8

 4 , 0

5 C= 0

6 2

 8 . −3

Berechne −3 A, B + C, 6B − 2C, A − 5E (E dreireihige Einheitsmatrix.)

Übung 3.2* Im Beispiel 3.2 sei

200 Z = 520

J1 = 0,2 A, J2 = 0,08 A, 

300 740 6 Ω, Z = 410 510

 800 Ω. 150

Berechne U1 , U2 und Z.

3.1.4

Transposition, Spalten-und Zeilenmatrizen

Definition 3.4: Es sei A = [aik ]m,n eine beliebige Matrix. Dann heißt die Matrix AT := [aik ]n,m mit aik := aki für alle i = 1, . . . n , k = 1, . . . , m

die transponierte Matrix zu A. Es handelt sich dabei, anschaulich gesprochen, um eine Spiegelung des Schemas von A an 6 Die Maßeinheit, hier Ω (Ohm), wird einfach hinter die Matrix geschrieben.

3.1 Definition, Addition, s-Multiplikation

der »Diagonalen« a11 , a22 , a33 , . . .: ⎡ ⎤ ⎡ a11 a12 · · · a1n a11 ⎢ a21 a22 · · · a2n ⎥ ⎢a12 ⎢ ⎥ ⎢ A=⎢ . ⎥ ⇒ AT = ⎢ .. ⎣ .. ⎦ ⎣ . am1 am2 · · · amn a1n

a21 a22 a2n

153

⎤ am1 am2 ⎥ ⎥ ⎥ ⎦ · · · amn ··· ···

Beispiel 3.3: ⎡ ⎤   2 −1 2 3 7 A= ⇒ AT = ⎣3 0 ⎦ . −1 0 5 7 5 Für beliebige reelle (m, n)-Matrizen A, B gelten offensichtlich folgende Regeln: ( AT )T = A ,

( A + B)T = AT + B T ,

(λ A)T = λ AT (λ ∈ R) .

(3.2)

Definition 3.5: Matrizen aus nur einer Spalte heißen Spaltenmatrizen oder Spaltenvektoren. Matrizen aus nur einer Zeile nennt man Zeilenmatrizen oder Zeilenvektoren. Die reellen Spaltenmatrizen mit n Elementen sind natürlich mit den bekannten Vektoren des Rn identisch, und auch Addition, Subtraktion und s-Multiplikation stimmen überein. Wir schreiben daher ohne Zögern Mat(n, 1; R) = Rn . Und was ist mit den Zeilenmatrizen? — Für diese gilt entsprechendes: Der Raum Mat(1, n; R) der reellen Zeilenmatrizen [x1 , x2 , . . . , xn ] ist bzgl. Addition und s-Multiplikation ein linearer Raum über R, wie in der Bemerkung nach Satz 3.1 im letzten Abschnitt so treffend erläutert. Das heißt nichts weiter, als daß man mit Zeilenmatrizen (=Zeilenvektoren) analog wie mit Spaltenvektoren rechnet. Man schreibt die Vektoren nur waagerecht statt senkrecht. Die Menge der reellen Zeilenvektoren [x1 , x2 , . . . , xn ] bezeichnen wir mit R1·n und erhalten damit die tiefsinnige Gleichung: Mat(1, n; R) = R1·n . Durch Transposition gehen Zeilenvektoren in Spaltenvektoren über und umgekehrt. Es sei A = [aik ]m,n eine beliebige Matrix. Ihre Spalten kann man zu Spaltenvektoren zusammenfassen, und ihre Zeilen zu Zeilenvektoren, s. Fig. 3.7, 3.8. k-te Spalte a1k .. . amk

Spaltenvektor ⎡ ⎤ a1k ⎢ ⎥ → ⎣ ... ⎦ := ak amk

Fig. 3.7: Spaltenvektor

i-te Zeile

ai1 · · · ain ↓

Zeilenvektor [ai1 · · · ain ] := aˆ i Fig. 3.8: Zeilenvektor

154

3 Matrizen

Damit schreibt man die Matrix A auch in der Form ⎡ ⎤ aˆ 1 ⎢ .. ⎥ A = [a1 , a2 , . . . , an ] oder A := ⎣ . ⎦ .

(3.3)

aˆ m

Die Matrix ist ein n-Tupel von Spaltenvektoren oder ein m-Tupel von Zeilenvektoren (letztere in senkrechter Anordnung geschrieben).

3.2

Matrizenmultiplikation

Die Matrizenmultiplikation ist der Schlüssel der Matrizenrechnung. Lineare Gleichungssysteme, Eigenwertprobleme, Kegelschnitte und Kompositionen von linearen Abbildungen lassen sich erst damit übersichtlich darstellen, ja tiefer liegende Gesetzmäßigkeiten werden erst dadurch erkannt und formulierbar. 3.2.1

Matrix-Produkt

Definition 3.6: (Matrizenmultiplikation) Das Matrix-Produkt AB zweier reeller Matrizen A = [aik ]m, p und B = [bik ] p,n wird folgendermaßen gebildet: AB := [cik ]m,n

mit cik =

p 

ai j b jk

für alle i = 1, . . . m , k = 1, . . . n . (3.4)

j=1

Man beachte, daß das Produkt AB dann und nur dann erklärt ist, wenn die Spaltenzahl von A gleich der Zeilenzahl von B ist. Beispiel 3.4: ⎡ ⎤   6 −1 1 3 0 Aus A = und B = ⎣5 10 ⎦ folgt 2 4 9 7 8  AB =

  1 · 6 + 3 · 5 + 0 · 7 1 · (−1) + 3 · 10 + 0 · 8 21 = 2 · 6 + 4 · 5 + 9 · 7 2 · (−1) + 4 · 10 + 9 · 8 95

 29 . 110

Mit den Zeilenvektoren aˆ i von A und den Spaltenvektoren bk von B bekommt das Produkt AB (in Def. 3.6) die übersichtliche Gestalt ⎤ ⎡ T aˆ 1 · b1 aˆ T1 · b2 · · · aˆ T1 · bn ⎥ ⎢ T ⎢ aˆ 2 · b1 aˆ T2 · b2 · · · aˆ T2 · bn ⎥ T ⎥ ⎢ AB = [ aˆ i · bk ]m,n = ⎢ . (3.5) .. .. ⎥ ⎣ .. . . ⎦ aˆ Tm · b1 aˆ Tm · b2 · · · aˆ Tm · bn

3.2 Matrizenmultiplikation

155

Also Merkregel: An der Stelle (i, k) von AB steht das innere Produkt aus dem i-ten Zeilenvektor7 von A und dem k-ten Spaltenvektor von B; kurz: ( AB)ik = (i-te Zeile von A)T · (k-te Spalte von B).

(3.6)

Bei der praktischen Durchführung von Matrixmultiplikationen verwendet man zweckmäßig die Winkelanordnung der drei Matrizen A, B und AB, wie sie in Fig. 3.9a skizziert ist. Hier steht im Kreuzungsfeld der i-ten Zeile von A und der k-ten Spalte von B gerade das zugehörige Element cik von AB. Fig. 3.9b verdeutlicht dies numerisch mit den Matrizen aus Beisp. 3.4.

B=

A=

a11 .. .

···

ai1 .. . am1

··· ···

a1 p .. . ai p .. . amp

b11 .. . b p1

···

c11 .. . .. . .. . cm1

..............

 a)

b1k .. . b pk

···

··· ···

cik ..............  = AB

b1n .. . b pn c1n .. . .. . .. . cmn

A=

1 2

B=

6 5 7

−1 10 8

3 4

21 95

29 110

0 9 

 b)

  = AB

Fig. 3.9: Winkelanordnung bei der Matrizenmultiplikation

Satz 3.2: (Rechenregeln für die Matrizenmultiplikation) Für alle reellen Matrizen A, B, C, für die die folgenden Summen und Produkte gebildet werden können, und alle λ ∈ R gilt (M1) λ( AB) = (λ A)B = A(λB) , Assoziativgesetze, (M2) A(BC) = ( AB)C , (M3) A(B + C) = AB + AC , (M4) (B + C) A = B A + C A , (M5) Ferner (M6) (M7)

( AB)T = B T AT ,

Distributivgesetze, Transposition von Matrix-Produkten.

A0 = 0 , 0 A = 0 , Nullmatrix annulliert A, AE = A , E A = A , Einheitsmatrix reproduziert A.

7 Natürlich transponiert, da der Zeilenvektor zuerst zu einem Vektor des R p gemacht werden muß, damit das innere Produkt einen Sinn hat.

156

3 Matrizen

Die Nullmatrizen 0 und Einheitsmatrizen E in (M6), (M7) müssen natürlich so gewählt werden, daß sie mit A von links bzw. von rechts multiplizierbar sind. Auf Grund von (M1), (M2) läßt man Klammern bei mehrfachen Produkten auch weg; λ AB, ABC, λ ABC, ABC D usw. Irrtümer können dabei nicht entstehen. Beweis: Zu (M2). Es sei A = [aik ]mp , B = [bik ] pq , C = [cik ]qn . Nennt man ( AB)ik , ( A(BC))ik usw. die Elemente der Matrizen AB, A(BC) usw. mit Zeilenindex i und Spaltenindex k, so errechnet man ( A(BC))ik = (( AB)C)ik =

p  j=1 q 

ai j (BC) jk =

( AB)is csk =

s=1

q p  

ai j b js csk ,

und

j=1 s=1 p q  

ai j b js csk .

s=1 j=1

Da man Summenzeichen vertauschen darf, sind die beiden rechts stehenden Doppelsummen gleich, d.h. es gilt (M2). Die übrigen Rechenregeln kann der Leser auf natürliche Art selbst beweisen.  Es sei darauf hingewiesen, daß AB = B A nicht in jedem Fall gilt. Man sagt: Das Matrixprodukt ist nicht kommutativ. Denn zunächst ist es denkbar, daß zwar AB gebildet werden kann, aber nicht B A. Sind beide Produkte aber sinnvoll, so ist trotzdem AB  = B A möglich, wie folgendes Beispiel zeigt: A



1 1

 0 1 0 0

B



 1 1 = 0 1



1 , 1

B

 aber

1 0

 1 1 0 1

A

  0 2 = 0 0

 0 . 0

Natürlich gibt es auch Matrizen, für die AB = B A (zufällig) richtig ist. Das ist z.B. der Fall, wenn A quadratisch ist und B = 0 oder B = E (Einheitsmatrix), vom gleichem Format wie A. Es kommen halt beide Fälle vor: AB = B A und AB  = B A. Bemerkung: Für komplexe Matrizen oder Matrizen mit Elementen aus einem beliebigen algebraischen Körper gilt alles, was im vorliegenden Abschn. 3.2 erläutert wird, entsprechend. Historische Anmerkung: Die erste geschlossene Darstellung der Matrizenrechnung, einschließlich Addition, s-Multiplikation und Multiplikation von Matrizen wurde von Arthur Cayley 1858 veröffentlicht (»A Memoir on the Theory of Matrices«, Collected Papers II, S. 475ff). Es dauerte aber fast bis zum Beginn des 20. Jahrhunderts, bis man Allgemein die Bedeutung der Matrizen und damit ihrer Multiplikation als zentrales Hilfsmittel bei der Beschreibung vieler Probleme der linearen Algebra erkannte. Der deutsche Mathematiker F.G. Frobenius erzielte in den Jahren um 1900 große Fortschritte mit seiner »Darstellungstheorie für Gruppen« in der er beliebige Gruppen durch multiplikative Matrizen-Gruppen darstellte. Dies erwies sich für Quantenmechanik

3.2 Matrizenmultiplikation

157

und Relativitätstheorie als wichtig. Es ist klar, daß dabei insbesondere die Matrizenmultiplikation zur Blüte gelangte. Übung 3.3: Welche der Produkte AB, AX, B X, X T A, ( AT X)T B, B T X aus den unten angegebenen Matrizen sind sinnvoll? Berechne sie gegebenenfalls! ⎡ ⎤ ⎡ ⎤

 3 7 8 −2 8 ⎢ ⎥ ⎢ ⎥ B = ⎣1 8⎦ , A = , X = ⎣4⎦ . 6 5 5 4 0

Übung 3.4:

⎡ a11 a12 ⎢ Es seien A = ⎣ 0 a22 0 0 Matrizen. Zeige, daß AB = ist.

3.2.2

⎤ ⎡ a13 b11 b12 ⎥ ⎢ a23 ⎦, B = ⎣ 0 b22 a33 0 0 [cik ]3,3 von gleicher Bauart

⎤ b13 ⎥ b23 ⎦, zwei gegebene reelle (3,3)b33 ist, d.h. daß c21 = c31 = c32 = 0

Produkte mit Vektoren

Da Spalten-und Zeilenvektoren identisch mit Spalten- und Zeilenmatrizen sind, können sie auch in Matrizenprodukten auftreten. Besonders häufig kommen Produkte der Form ⎡ ⎤ ⎡ ⎤ a11 x1 + · · · a1n xn x1 ⎢ .. ⎥ ⎢ . .. ⎦ mit A = [aik ]m,n und x = ⎣ ... ⎥ Ax = ⎣ . (3.7) ⎦ ∈ Rn am1 x1 +

· · · amn xn

xn

vor. Ax ist also ein Spaltenvektor aus Rm . Man kann damit lineare Gleichungssysteme in der Kurzform Ax = b

(3.8)

beschreiben (mit A ∈ Mat(m, n; R), x ∈ Rn , b ∈ Rm ). Damit ist eine erste Motivation für die Matrizenmultiplikation gegeben. Ist x speziell ein Koordinateneinheitsvektor ek (d.h. xi = δik ), so wird das Produkt Ax offenbar zu Aek = ak

(= k-ter Spaltenvektor von A).

(3.9)

Analog zu Ax lassen sich die Produkte yT A bilden, wobei A = [aik ]m,n ist, wie bisher, und y ∈ Rm . yT A ist ein Zeilenvektor. Insbesondere folgt mit dem Koordinateneinheitsvektor ei ∈ Rm : eiT A = aˆ i

(= i-ter Zeilenvektor von A).

Nun zu Produkten aus Zeilen- und Spaltenvektoren:

(3.10)

158

3 Matrizen

Folgerung 3.1: Für x, y ∈ Rn gilt ⎡ ⎤ y1 n ⎢ ⎥  x T y = [x1 , . . . , xn ] ⎣ ... ⎦ = xi yi ,

(3.11)

i=1

yn und für x ∈ Rm , y ∈ Rn

⎡ ⎤ x1 y1 x1 ⎢ x2 y1 ⎢ ⎥ ⎢ x yT = ⎣ ... ⎦ [y1 , . . . , yn ] = ⎢ . ⎣ .. xm xm y1 ⎡

x1 y2 x2 y2 xm y2

⎤ x1 yn x2 yn ⎥ ⎥ ⎥. ⎦ · · · am yn ··· ···

(3.12)

Also gilt die Faustregel: Zeilenvektor · Spaltenvektor = Skalar Spaltenvektor · Zeilenvektor = Matrix

(3.13) (3.14)

Ersetzt man R durch C oder einen anderen algebraischen Körper K, gilt das obige entsprechend. Allerdings ist speziell für x, y ∈ Rn : xT y = x · y Übung 3.5:



(inneres Produkt)

3 ⎢ Es sei A = ⎣−6 1

5 2 4

(3.15)

⎤ ⎡ ⎤ ⎡ ⎤ 1 9 1 ⎥ ⎢ ⎥ ⎢ ⎥ 0⎦, x = ⎣ 4 ⎦, y = ⎣3⎦. Berechne Ax, yT A, x T y, x T Ax. 7 −1 8

Übung 3.6: Es seien x, y, z ∈ Rn (n ≥ 2). Der Ausdruck x yT z läßt sich auf zwei Weisen berechnen: (x yT )z oder x( yT z). Wie viele Multiplikationen und Additionen werden bei (x yT )z benötigt und wie viele bei x( yT z)? Welche Berechnungsart ist also die »einfachere« ?

3.2.3

Matrizen und lineare Abbildungen

Jede reelle (m, n)-Matrix A liefert durch ˆ A(x) := Ax

für alle x ∈ Rn

(3.16)

ˆ : Rn → Rm . Sie erfüllt die Gleichungen eine Abbildung A ˆ + y) = A(x) ˆ ˆ y) , A(x + A(

ˆ ˆ A(λx) = λ A(x)

(3.17)

3.2 Matrizenmultiplikation

159

für alle x, y ∈ Rn und alle λ ∈ R (nach Satz 3.2, (M1),(M3)). Eine Abbildung mit diesen Eigenschaften nennt man eine lineare Abbildung (vgl. Abschn. 2.4.5). ˆ : Rm → Rn in der Form (3.16) darstellen. Umgekehrt läßt sich jede lineare Abbildung A ˆ (Denn mit A(ek ) =: ak kann man die Matrix A = [a1 , . . . , an ] bilden. Sie erfüllt (3.16), wie man leicht nachrechnet.) Wir fassen zusammen: Satz 3.3: ˆ : Rn → Rm entspricht umkehrbar eindeutig eine reelle Jeder linearen Abbildung A (m, n)-Matrix mit ˆ A(x) = Ax

für alle x ∈ Rn .

(3.18)

ˆ Der Identität, Iˆ : Rn → Rn , d.h. der Abbildung Iˆ mit I(x) = x für alle x ∈ Rn , entspricht ˆ dabei die n-reihige Einheitsmatrix E = [δik ]n,n , also I(x) = Ex für alle x ∈ Rn . Ferner gilt Satz 3.4: ˆ : R p → Rm und B ˆ : Rn → R p die MatriEntsprechen den linearen Abbildungen A n m ˆ ˆ zen A, B, so entspricht der Komposition A ◦ B : R → R das Produkt AB, d.h. ˆ ◦ B)(x) ˆ (A = ABx

für alle x ∈ Rn .

(3.19)

Beweis: ˆ ◦ B)(x) ˆ B(x)) ˆ ˆ ˆ (A = A( = A(Bx) = ABx.



Bemerkung: Dieser Zusammenhang ist die hauptsächliche Motivation für die Einführung der Matrizenmultiplikation in der beschriebenen Weise. Der enge Zusammenhang zwischen Matrizen und linearen Abbildungen führt zu folgenden Begriffsbildungen: Definition 3.7: Es sei A eine reelle (m, n)-Matrix. Man vereinbart: Kern A ist die Menge aller x ∈ Rn mit Ax = 0, Bild A ist die Menge aller y = Ax ∈ Rm mit x ∈ Rn , Rang A ist die maximale Anzahl linear unabhängiger Spaltenvektoren von A (= maximale Anzahl linear unabhängiger Zeilenvektoren von A 8 ).

8 Dies folgt aus Satz 2.9(d), in Abschn. 2.2.4, wenn man A durch Nullzeilen oder Nullspalten zu einer quadratischen Matrix ergänzt.

160

3 Matrizen

Bemerkung: (a) Kern A wird auch Nullraum von A genannt und Bild A der Spaltenraum von A (da Bild A von den Spaltenvektoren von A aufgespannt wird). Bild A ist ein Unterraum von Rm . Entsprechend ist der Zeilenraum von A der Unterraum aus Rn , der von den Zeilenvektoren von A aufgespannt wird. Er ist also gleich Bild AT . (b) Für lineare Abbildungen sind die Begriffe Kern, Bild, Rang in Abschn. 2.4.7 eingeführt worˆ : Rn → Rn , die der Matrix A entspricht, ist natürlich den. Mit der linearen Abbildung A ˆ ˆ Es ist also im Grunde nicht Kern A = Kern A, Bild A = Bild Aˆ und Rang A = Rang A. n m nötig, zwischen linearen Abbildungen von R in R und reellen (m, n)-Matrizen zu unterscheiden. Sie entsprechen sich vollkommen. Das wird auch durch folgenden Satz deutlich. Satz 3.5: Es seien A = [aik ]m,n und B = [bik ]n, p zwei reelle Matrizen. Damit gelten die Rangbeziehungen: Rang A = dim Bild A = dim Bild AT ,

9

(3.20)

»Dimensionsformel« dim Kern A + Rang A = n

(= Spaltenzahl von A),

(3.21)

speziell Kern A = {0} ⇐⇒ Rang A = n .

(3.22)

Ferner gilt Rang A + Rang B − n ≤ Rang AB ≤ min{Rang A, Rang B} .

(3.23)

Beweis: Gleichung (3.20) folgt unmittelbar aus Definition 3.7. (3.21) ist lediglich eine spezielle Formulierung der bewiesenen Dimensionsformel in Abschn. 2.4.7, Satz 2.23. (3.21) folgt elementarer auch aus Abschn. 2.2.5, Satz 2.11(b), denn dort ist Rang A = p und dim Kern A = n − p (= Din  mension des Lösungsraumes von aik xk = 0, i = 1, . . . , m.) Somit: dim Kern A + Rang A = k=1

(n − p) + p = n. ˆ ˆ : Rn → Rm die lineare Abbildung zur Matrix A( A(x) = Ax), und Zu (3.23): Es sei A ˆA ˆ auf den Unterraum Bild B ⊂ Rn . Die Dimensiˆ : Bild B → Rm sei die Einschränkung von A ˆˆ angewandt onsformel (Satz 2.23, Abschn. 2.4.7) lautet, auf A ˆˆ + Rang A ˆˆ = dim Bild B . dim Kern A 9 dim U = Dimension von U, s. Abschn. 2.1.3, Def. 2.2

(3.24)

3.2 Matrizenmultiplikation

161

ˆˆ = Kern A ∩ Bild B, Rang A ˆˆ = Rang AB und dim Bild B = Rang B, also Es ist aber Kern A dim(Kern A ∩ Bild B) + Rang AB = Rang B .

(3.25)

Daraus ergibt sich unmittelbar Rang AB ≤ Rang B und durch Übergang zur Transponierten: Rang( AB) = Rang( AB)T = Rang B T AT ≤ Rang AT ≤ Rang A, zusammen also die rechte Ungleichung in (3.23). Die linke Ungleichung in (3.23) erhält man aus (3.25) durch Umstellung: Rang B − Rang AB = dim(Kern A ∩ Bild B) ≤ dim Kern A . dim Kern A ist aber nach (3.21) gleich n − Rang A, womit alles bewiesen ist.

(3.26) 

Wie berechnet man den Rang einer Matrix A = [aik ]m,n ? Ganz einfach: Man wendet auf das homogene Gleichungssystem n 

aik xk = 0 ,

i = 1, . . . , m ,

(3.27)

k=1

den Gaußschen Algorithmus an (s. Abschn. 2.2.5, 2.2.1). Er führt auf ein p-zeiliges Trapezsystem (wobei wir Dreieckssysteme als Spezialfälle von Trapezsystemen mit n = p auffassen). Es ist dann p = Rang A. Beispiel 3.5: Die folgende Matrix A geht durch den Gaußschen Algorithmus in die rechts stehende »Trapezmatrix« über: ⎡ ⎤ ⎡ ⎤ 2 1 5 5 7 2 1 5 5 7 ⎢−1 3 −2 3 −13⎥ ⎢0 3,5 0,5 5,5 −9,5⎥ ⎥ ⎢ ⎥ A=⎢ (3.28) ⎣ 1 −2 3 0 12 ⎦ −→ ⎣0 0 0,86 1,43 1,71 ⎦ . 2 2 6 8 6 0 0 0 0 0 In der »Trapezmatrix« stehen nur die Koeffizienten der linken Seite des Trapezsystems, da es allein auf sie ankommt. (Die Zahlen in der dritten Zeile sind dabei gerundet.) Genau 3 Zeilen sind in der »Trapezmatrix« ungleich 0, also ist Rang A = 3. Bemerkung: Für C oder allgemeiner K (algebraischer Körper) an Stelle von R gilt alles in diesem Abschnitt Gesagte entsprechend. Übung 3.7* Berechne die Ränge der folgenden Matrizen ⎡

1 ⎢ A = ⎣0 1

1 1 0

1 1 0



1 ⎥ 0⎦ , 1



1,2 ⎢ B = ⎣−3,0 0,4

5,4 −13,5 1,8



−8,4 ⎥ 21,0 ⎦ , 2,8

⎡ ⎤ 9 ⎢7⎥ ⎢ ⎥ x=⎢ ⎥. ⎣0⎦ 0

162

3 Matrizen

Übung 3.8* Es seien A, B reelle quadratische n-reihige Matrizen mit Rang A = Rang B = n. Beweise Rang AB = Rang A = Rang B . (Hinweis: Satz 3.5).

3.2.4

Blockzerlegung

Als Untermatrix einer Matrix A bezeichnen wir jede Matrix, die durch Herausstreichen von Zeilen und/oder Spalten aus A hervorgeht. Eine Zerlegung einer Matrix B in Untermatrizen (Blöcke, Kästchen), wie in Fig. 3.10 skizziert, nennt man eine Blockzerlegung der Matrix. Die Untermatrizen Aik heißen dabei Blöcke (oder Kästchen). Rechts in Figur 3.10 steht gewissermaßen eine »Matrix aus Matrizen«; man nennt sie kurz eine Blockmatrix. Blöcke aus der gleichen Zeile einer Blockmatrix haben dabei gleiche Zeilenzahl, Blöcke aus der gleichen Spalte gleiche Spaltenzahl.  ⎡ a11 · · · ⎢ .. ⎢ . ⎢  ⎢ ⎢ ⎢ ⎢ A=⎢ ⎢ .. ⎢ ⎢ . ⎢  ⎢ . . ⎣ . am1 · · ·





···

···

···

.. .



···

···

⎤ a1n .. ⎥ . ⎥ ⎡ ⎥ ⎥ A11 ⎥ ⎥ ⎢ A21 ⎥ ⎢ ⎥=⎢ . ⎥ ⎣ .. .. ⎥ ⎥ . A M1 ⎥ .. ⎥ . ⎦

A12 A22

··· ···

A M2

···

⎤ A1N A2N ⎥ ⎥ .. ⎥ . . ⎦ AM N

amn

Fig. 3.10: Blockzerlegung einer Matrix

Folgendes Zahlenbeispiel macht die Blockzerlegung deutlich: ⎡ ⎤ 3 4 7 8 6 1 ⎢ 5 9 7 9 4 1 ⎥   ⎢ ⎥ A11 A12 A13 ⎢ ⎥ A=⎢ 1 0 6 8 5 0 ⎥= . A21 A22 A23 ⎣ 3 6 9 8 4 2 ⎦ −1 8 3 2 0 4

(3.29)

Durch die Unterteilung mit den Linien ist klar, wie die Matrizen Aik in diesem Beispiel aussehen. Der Vorteil ist nun folgender: Man kann mit Blockmatrizen formal so rechnen, als wären alle Blöcke einfache Zahlen!

3.2 Matrizenmultiplikation

Genauer: Sind ⎡ A11 ⎢ .. A=⎣ . A M1

···

A1N

···

AM N





···

B 11 ⎢ .. B=⎣ .

⎥ ⎦,

···

B M1

B 1N





C 11 ⎥ ⎢ .. ⎦ ,C = ⎣ . C N1 BMN

163

···

C 1P

···

CNP

⎤ ⎥ ⎦

reelle oder komplexe Matrizen, die in die Blöcke Aik , B ik , C ik zerlegt sind, so folgt für die Addition, Subtraktion und s-Multiplikation mit Blockmatrizen ⎡ ⎤ ⎡ A11 ± B 11 · · · A1N ± B 1N λ A11 ⎢ ⎥ ⎢ . . . .. .. A± B = ⎣ ⎦ , λ A = ⎣ .. A M1 ± B M1

···

λ A M1

AM N ± B M N

··· ···

⎤ λ A1N .. ⎥ (3.30) . ⎦ λ AM N

(λ reell oder komplex), und für die Matrizenmultiplikation mit Blockmatrizen: ⎡

D11 ⎢ .. AC = ⎣ . D M1

··· ···

⎤ D1P .. ⎥ . ⎦

mit Dik =

N 

Ai j C jk .

(3.31)

j=1

DM P

Dabei wird vorausgesetzt, daß die Zeilen-und Spaltenzahlen der Blöcke Aik , B ik , Dik so beschaffen sind, daß alle hingeschriebenen Summen, Differenzen und Produkte auch gebildet werden können. Die Beweise werden dem Leser überlassen. (3.31) ist dabei etwas mühsamer nachzuweisen. Man beginne daher mit einfachen Zerlegungen, also kleinen Zahlen M, N , P. Speziell für 2 × 2-Zerlegungen folgt mit  A=  AB =

A11 A21



A12 , A22

 B=

A11 B 11 + A12 B 21 A21 B 11 + A22 B 21

B 11 B 21



B 12 , B 22

Ak1 ∈ Mat(m, n; C) B 1k ∈ Mat(n, p; C) : Ak2 ∈ Mat(m, s; C)

B 2k ∈ Mat(s, p; C)  A11 B 12 + A12 B 22 . A21 B 12 + A22 B 22

(3.32)

Bemerkung: Liegt ein beliebiger Körper K zu Grunde, gilt alles entsprechend. Übung 3.9* Es sei ein lineares Gleichungssystem

   B1 A D X1 = X2 B2 0 C gegeben. Dabei sei A eine p–reihige quadratische Matrix, C eine q-reihige quadratische Matrix, X 1 , B 1 p-reihige Spaltenmatrizen und X 2 , B 2 q-reihige Spaltenmatrizen. Wie kann man

164

3 Matrizen

dieses p + q-reihige Gleichungssystem in ein q-reihiges und ein p-reihiges Gleichungssystem aufspalten?

3.3

Reguläre und inverse Matrizen

Im Folgenden setzen wir voraus, daß alle in diesem Abschnitt auftretenden Matrizen Elemente aus dem gleichen algebraischen Körper K besitzen. Wir sagen dies, der einfachen Sprechweise wegen, nicht immer dazu. Beim ersten Lesen ist zu empfehlen, sich alle auftretenden Matrizen als reelle Matrizen vorzustellen, also K = R. Später überzeugt man sich leicht davon, daß alles auch für komplexe Matrizen oder Matrizen mit Elementen aus allgemeinem K gilt. 3.3.1

Reguläre Matrizen

Definition 3.8: Eine Matrix A heißt genau dann regulär, wenn sie quadratisch ist und ihre Spaltenvektoren linear unabhängig sind. Eine quadratische Matrix A ist also genau dann regulär, wenn Rang A = Spaltenzahl von A

(3.33)

ist. Im Zusammenhang mit linearen Gleichungssystemen Ax = y läßt sich Regularität so beschreiben: Satz 3.6: Eine quadratische n-reihige Matrix A ist genau dann regulär, wenn eine der folgenden Bedingungen erfüllt ist: (a) Ax = y hat für ein y ∈ Kn genau eine Lösung x. (b) Ax = y hat für jedes y ∈ Kn genau eine Lösung x. (c) Ax = 0 hat nur die Lösung x = 0. Beweis: (a) folgt aus Abschn. 2.2.4, Satz 2.9 (1. Fall) und die Äquivalenz von (a), (b), (c) untereinander aus Abschn. 2.2.4, Folgerung 2.5.  Reguläre Matrizen sind also besonders angenehme und freundliche Zeitgenossen. Das machen auch die nächsten Sätze deutlich. Satz 3.7: (Produkte regulärer Matrizen) Das Produkt zweier quadratischer n-reihiger Matrizen A, B ist genau dann regulär, wenn jeder der Faktoren A, B regulär ist.

3.3 Reguläre und inverse Matrizen

165

Beweis: I. Es seien A, B regulär, d.h. Rang A = Rang B = n. Dann liefert die linke Rangungleichung in (3.23) im Abschn. 3.2.3 n + n − n ≤ Rang AB , also n ≤ Rang AB. Natürlich ist Rang AB ≤ n, da n die Spaltenzahl von AB ist, folglich ist Rang AB = n, d.h. AB ist regulär. II. Es sei nun AB als regulär vorausgesetzt. Aus der rechten Ungleichung in (3.23) folgt damit  Rang A , n = Rang AB ≤ Rang B , wegen Rang A ≤ n, Rang B ≤ n also Rang A = Rang B = n, womit die Regularität von A und B bewiesen ist.  Satz 3.8: (Lösung von Matrixgleichungen) Zu je zwei regulären n-reihigen Matrizen A, B gibt es genau eine Matrix X mit AX = B . X ist dabei eine reguläre n-reihige Matrix. Beweis: Mit den Spaltenvektoren b1 , . . . , bn von B betrachten wir die n Gleichungen Ax 1 = b1 , . . . , Ax n = bn .

(3.34)

Da A regulär ist, hat jede dieser Gleichungen eine eindeutig bestimmte Lösung x i (Satz 3.6 (b)). Sie werden zur quadratischen Matrix X = [x 1 , . . . , x n ] zusammengesetzt. Damit sind die n Gleichungen in (3.34) gleichbedeutend mit AX = B. Die Matrixgleichung hat also eine eindeutig bestimmte Lösung X. Nach Satz 3.7 ist X regulär.  Bemerkung: Natürlich ist die Gleichung YA= B ( A, B gegebene reguläre n-reihige Matrizen) auch eindeutig lösbar, und die Lösung Y ist dabei regulär n-reihig. Dies folgt aus der transponierten Gleichung AT Y T = B T die nach Satz 3.8 eindeutig lösbar ist.

166

3 Matrizen

3.3.2

Inverse Matrizen

Definition 3.9: Es sei A eine quadratische Matrix. Existiert dazu eine Matrix X mit AX = E

(E n-reihige Einheitsmatrix),

so nennt man X die zu A inverse Matrix, kurz Inverse von A. Man bezeichnet X durch A−1 . A wird in diesem Falle invertierbar genannt. Satz 3.9: Eine quadratische Matrix A ist genau dann invertierbar, wenn sie regulär ist. Die Inverse A−1 ist in diesem Falle eindeutig bestimmt. A−1 ist regulär und von gleicher Zeilenzahl wie A. Überdies gilt A−1 A = A A−1 = E .

(3.35)

Beweis: Ist A regulär, dann ist A nach Satz 3.7 auch invertierbar. Ist A dagegen quadratisch und invertierbar, d.h. gibt es ein X mit AX = E, so muß X quadratisch von gleicher Zeilenzahl wie A sein. A und X sind nach Satz 3.7 regulär. Nach Satz 3.8 ist X eindeutig bestimmt. — Insbesondere hat X = A−1 selbst wieder eine Inverse ( A−1 )−1 . Es gilt A A−1 = E und damit A−1 A = ( A−1 A) ( A−1 ( A−1 )−1 ) = A−1 ( A A−1 )( A−1 )−1 = A−1 ( A−1 )−1 = E .       E

E

 Für das Rechnen mit inversen Matrizen gelten die leicht einzusehenden Regeln ( A−1 )−1 = A ,

( AB)−1 = B −1 A−1 ,

( AT )−1 = ( A−1 )T .

(3.36)

Bemerkung: ˆ : Rn → R n (a) Jede quadratische n-reihige reelle Matrix A vermittelt eine lineare Abbildung A n ˆ ˆ ist genau dann bijektiv (umkehrbar eindeutig), wenn A durch A(x) = Ax (x ∈ R ). A ˆ −1 : Rn → Rn regulär ist (nach Satz 3.6 (b)). Durch A−1 wird die Umkehrabbildung A −1

ˆ (x) = A−1 x), denn es ist A A−1 x = x und A−1 A y = y (für alle x, y ∈ beschrieben. ( A n R ). — Für K statt R gilt dies genauso.

(b) Die regulären n-reihigen Matrizen (mit Elementen aus K), bilden bezüglich der Matrizenmultiplikation eine Gruppe (s. Abschn. 2.3.2). Denn Produkte AB regulärer Matrizen sind

3.3 Reguläre und inverse Matrizen

167

regulär, es gilt ( AB)C = A(BC) für diese Matrizen, E ist regulär und mit A ist auch A−1 regulär. Damit gelten für diese Gruppe alle in 2.3 hergeleiteten Gruppengesetze. Man versucht oft, beliebige Gruppen isomorph (oder homomorph) in diese Matrizen-Gruppen abzubilden, man sagt, sie »darzustellen« (Darstellungstheorie von Gruppen). Auf diese Weise werden auch beliebige Gruppen besser handhabbar, da man die Matrizengesetze auf sie anwenden kann. Dieser Ausblick mag hier genügen. Für die Darstellungstheorie wird auf die Spezialliteratur verwiesen (z.B. [11]). Berechnung der Inversen: Es sei A eine quadratische n-reihige Matrix, deren Inverse gesucht wird, sofern sie existiert. Man will also die Gleichung AX = E lösen. Dazu werden die einzelnen Spalten dieser Gleichung hingeschrieben: Ax 1 = e1 ,

Ax 2 = e2 , . . . , Ax n = en .

(3.37)

Hierbei sind x 1 , . . . , x n die Spalten von X und e1 , . . . , en die Spalten von E. Jede der Gleichungen (3.37) wird mit dem Gaußschen Algorithmus zu lösen versucht. Ist die erste Gleichung damit eindeutig lösbar, so ist A regulär (Satz 3.6 (a)), und auch die übrigen Gleichungen in (3.37) sind eindeutig lösbar. Dabei braucht die linke Seite, deren Koeffizienten aik bei allen Gleichungen in (3.37) gleich sind, nur einmal auf Dreiecksform gebracht zu werden, was den Rechenaufwand senkt. Die Lösungen x 1 , . . . , x n der Gleichungen in (3.37) ergeben die gesuchte Inverse A−1 = [x 1 , x 2 , . . . , x n ]. Speziell für zweireihige reguläre Matrizen errechnet man A=

 a c

  1 b d "⇒ A−1 = d ad − cb −c

 −b . a

(3.38)

Dabei folgt aus der Regularität von A : ad − cb  = 0. Denn ad − cb = det A ist die Determinante von A (s. Abschn. 1.1.7), deren Betrag der Flächeninhalt des Parallelogramms aus den Spaltenvektoren von A ist. Dieser ist ungleich 0, wenn die Spaltenvektoren linear unabhängig sind, d.h. wenn A regulär ist. Beispiel 3.6: Die Inverse der Matrix   2 1 A= lautet −3 5

A−1 =

  1 5 −1 . 13 3 2

Bemerkung: Ist Ax = b ein reguläres lineares Gleichungssystem — d.h. A ist regulär — und ist A−1 bekannt oder einfach zu berechnen, so erhält man die Lösung x sofort durch linksseitige

168

3 Matrizen

Multiplikation mit A−1 : Ax = b "⇒ A−1 Ax = A−1 b "⇒ x = A−1 b . Im Allgemeinen ist es allerdings nicht zu empfehlen, zunächst A−1 zu berechnen und dann x = A−1 b zu bilden. Denn dies ist aufwendiger als die direkte Anwendung des Gaußschen Algorithmus und kann außerdem zu größeren Verfälschungen durch Rundungsfehler führen. Übung 3.10* Berechne die Inversen der folgenden Matrizen, falls sie invertierbar sind ⎡ ⎤ ⎡ ⎤

 3 4 9 2 6 10 0 1 ⎢ ⎥ ⎢ ⎥ A= , B = ⎣ 10 1 2⎦ , C = ⎣5 −1 8 ⎦ . 1 0 −1 8 5 4 −4 3

Übung 3.11: Es sei ⎡ a11 ⎢ A=⎣ 0 0

a12 a22 0

⎤ a13 ⎥ a23 ⎦ a33

mit a11 a22 a33 = 0.

Zeige, daß A−1 = [xik ]3,3 existiert und von gleicher Bauart wie A ist, d.h. x21 = x31 = x32 = 0.

Übung 3.12: Es sei D = [dik ]n,n eine »Diagonalmatrix« (d.h. dik = 0 für alle i = k), und es sei dii  = 0 für alle i = 1, . . . n. Zeige: D−1 ist die Diagonalmatrix mit den Diagonalelementen 1/dii .

Übung 3.13: Prüfe durch Ausrechnen nach, daß für jede (2, 2)-Matrix A = [aik ]2,2 folgende Gleichung (von Cayley) gilt: A2 − (a11 + a22 ) A + (det A)E = 0 . Leite daraus eine weitere Formel für A−1 her (im Falle det A  = 0), nämlich A−1 =

3.4

1 [(a11 + a22 )E − A] . det A

Determinanten

Die Lösungen linearer Gleichungssysteme lassen sich mit Determinanten explizit angeben (Abschn. 3.4.6). Ferner kann man auch die Inversen regulärer Matrizen mit Determinanten durch ge-

3.4 Determinanten

169

schlossene Formeln darstellen (Abschn. 3.4.7). Wenn auch bei numerischen Lösungsberechnungen oder Invertierungen der Gaußsche Algorithmus oft vorzuziehen ist, so bilden die genannten Formeln doch bei »kleinen« Dimensionen, wie auch theoretischen Weiterführungen ein starkes Hilfsmittel, insbesondere bei parameterabhängigen Matrizen, wie bei Eigenwertproblemen u.a. Im Zwei- und Dreidimensionalen haben Determinanten als Flächen- oder Rauminhalte von Parallelogrammen bzw. Parallelflachs auch anschauliche Bedeutung (vgl. Abschn. 1.1.7, 1.2.6). Kurz, man kann recht viel damit machen, und der Leser mag daher auf das Folgende gespannt sein.

3.4.1

Definition, Transpositionsregel

Zwei- und dreireihige Determinanten kennen wir schon aus den Abschn. 1.1.7 und 1.2.3:   a11 a12    (3.39) a21 a22  = a11 a22 − a12 a21   a11 a12 a13     a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a21 a22 a23  = . (3.40)   − a11 a23 a32 − a13 a22 a31 − a12 a21 a33 a a a  31

32

33

Sehen wir uns die dreireihige Determinante in (3.40) genauer an, und zwar den Ausdruck rechts vom Gleichheitszeichen! Hier stehen in jedem Produkt, wie z.B. a12 a23 a31 , die ersten Indizes in natürlicher Reihenfolge (1, 2, 3), während die zweiten Indizes eine Permutation dieser Zahlen sind, in unserem Beispiel (2, 3, 1). Schreiben wir uns von jedem Glied rechts in (3.40) die Permutation der zweiten Indizes heraus, so erhalten wir (1,2,3) , (2,3,1) , (3,1,2) , (1,3,2) , (3,2,1) , (2,1,3) .

(3.41)

Dies sind alle Permutationen von (1, 2, 3), denn es gibt ja genau 3! = 6 (s. Abschn. 2.3.3, oder Burg/Haf/Wille (Analysis) [27], Abschn. 1.2.2). Dabei stehen in der oberen Reihe von (3.41) die geraden Permutationen und in der unteren Reihe die ungeraden Permutationen10 ((3, 2, 1) hat z.B. die Fehlstände (3, 2), (3, 1) und (2, 1), ist also ungerade). Wir sehen: In (3.40) werden die Produkte mit geraden Permutationen der zweiten Indizes addiert, mit ungeraden Permutationen subtrahiert. Dies kann als allgemeines Bildungsgesetz betrachtet werden. Wir definieren daher Determinanten nach diesem Muster: Definition 3.10: Es sei A = [aik ]n,n eine quadratische Matrix. Als Determinante det A von A bezeichnet man die Zahl 10 Wir erinnern (vgl. Abschn. 2.3.3): Als Fehlstand einer Permutation (k1 , . . . , kn ) bezeichnet man ein Paar ki , k j daraus mit ki > k j , wobei i < j (ki , k j stehen also »verkehrt herum«). Eine Permutation heißt gerade, wenn die Anzahl ihrer Fehlstände gerade ist; andernfalls heißt sie ungerade.

170

3 Matrizen

 a11   det A :=  ...  an1

 a1n   ..  := sgn(k1 , k2 , . . . , kn )a1k1 ·a2k2 ·. . .·ankn . .  (k ,k ,...,k )∈S  n n 1 2 · · · ann (3.42) ···

Hierbei ist Sn die Menge aller Permutationen (k1 , k2 , . . . , kn ) von (1, 2, . . . , n) (s. Abschn. 2.3.3). Die Summe wird also »über alle Permutationen von (1, 2, . . . , n)« genommen, d.h. zu jeder dieser Permutationen gibt es genau ein Glied in der Summe. Das Symbol sgn(k1 , k2 , . . . , kn ) bedeutet +1, falls (k1 , k2 , . . . , kn ) eine gerade Permutation ist, und −1, falls sie ungerade ist (s. Abschn. 2.3.3). Für komplexe Matrizen oder Matrizen mit Elementen aus einem beliebigen Körper K gilt die Definition der Determinante genauso, wie auch die folgenden Ausführungen. Damit kann man grundsätzlich jede Determinante berechnen. Man sieht, daß (3.42) im Falle n = 2 oder n = 3 die bekannten zwei- bzw. dreireihigen Determinanten ergibt. Die praktische Rechnung nach (3.42) ist allerdings sehr mühselig, denn die Summe hat n! Glieder, d.h. sehr viele für großes n. Wir werden daher nach günstigeren Berechnungsmethoden suchen. Dazu werden einige Gesetze für Determinanten hergeleitet. Zunächst die Transpositionsregel: Satz 3.10: Für jede quadratische Matrix A gilt det A = det AT . Das »Spiegeln« einer Matrix an der »Hauptdiagonalen« a11 , . . . , ann ändert also die Determinante nicht. Beweis: Da AT aus A = [aik ]n,n durch Vertauschen der Indizes i, k entsteht, ist nach der Definition der Determinante  det AT = sgn(k1 , k2 , . . . , kn )ak1 1 · ak2 2 · . . . · akn n . (k1 ,k2 ,...,kn )∈Sn

Wir wollen nun in jedem Glied ak1 1 ak2 2 . . . akn n die Faktoren so umordnen, daß die vorderen Indizes in die natürliche Reihenfolge 1, 2, . . ., n kommen. Dies denken wir uns schrittweise durchgeführt, wobei jeder Schritt in der Vertauschung genau zweier Faktoren aki i , ak j j besteht. Für die damit verbundene Verwandlung der Permutation (k1 , . . ., kn ) bedeutet dies, daß bei jedem Schritt eine »Transposition« ausgeführt wird, d.h. eine Vertauschung von genau zwei Zahlen ki , k j (s. Abschn. 2.3.3). Da sich jede Permutation als Produkt (Hintereinanderausführung) von endlich vielen Transpositionen darstellen läßt (Satz 2.12, Abschn. 2.3.3), kommen wir auch zum Ziel: Jedes Glied ak1 1 . . . akn n wird durch endlich viele Vertauschungen zweier Faktoren in a1 j1 . . . an jn überführt, wobei nun die zweiten Indizes ( j1 , . . . , jn ) eine Permutation von (1, . . .,

3.4 Determinanten

171

n) bilden. Nach Satz 2.13 in Abschn. 2.3.3 ist ( j1 , . . . , jn ) genau dann gerade, wenn (k1 , . . . , kn ) gerade ist (entsprechend für ungerade). Denn durch unsere Vertauscherei werden (k1 , . . . , kn ) und ( j1 , . . . , jn ) durch gleich viele Transpositionen gebildet. Somit ist sgn(k1 , . . . , kn ) = sgn( j1 , . . . , jn ) und damit  sgn( j1 , . . . , jn )a1 j1 · . . . · an jn = det A . det AT = ( j1 ,..., jn )∈Sn

 Übung 3.14: Schreibe für eine vierreihige Matrix A = [aik ]4,4 mit aii = 1, a21 = a31 = a34 = 0 die Summenformel (3.42) für det A explizit hin (Glieder, die ersichtlich Null sind, können dabei weggelassen werden.).

3.4.2

Regeln für Determinanten

Ist A = [a1 , . . . , an ] eine quadratische Matrix mit den Spaltenvektoren ai , so schreiben wir die Determinante von A auch in der Form det A = det(a1 , . . . , an ) .

(3.43)

Satz 3.11: (Grundgesetze für Determinanten) Für jede quadratische reelle Matrix A = [a1 , . . ., an ] gilt det A ∈ R und (a) det(a1 , . . . , ak + x k , . . . , an ) = det(a1 , . . . , ak , . . . , an ) + det(a1 , . . . , x k , . . . , an ) , (x k ∈ Rn ) (b) det(a1 , . . . , λak , . . . , an ) = λ det(a1 , . . . , ak , . . . , an ) , (λ ∈ R) (c) (d)

det(. . . , ai , . . . , ak , . . .) = − det(. . . , ak , . . . , ai , . . .) det E = 1 (E Einheitsmatrix)

In Worten: (a) Additivität: Steht in einer Spalte einer quadratischen Matrix eine Summe zweier Vektoren, so spaltet sich die Determinante der Matrix in die Summe zweier Determinanten auf, bei denen in den entsprechenden Spalten die Summanden stehen. (b) Homogenität: Ein reeller Faktor λ eines Spaltenvektors darf vor die Determinante gezogen werden. (c) Alternierende Eigenschaft: Bei Vertauschung zweier Spalten ändert sich das Vorzeichen der Determinante. (d) Normierung: Die Einheitsmatrix hat die Determinante 1.

172

3 Matrizen

Folgerung 3.2: Die Grundgesetze (a), (b), (c), (d) gelten für Zeilenvektoren wegen det A = det AT entsprechend. Beweis: (des Satzes 3.11): (a), (b) und (d) folgen unmittelbar durch Einsetzen in die Summenformel (3.42) in der Definition der Determinante. (c) ergibt sich ebenfalls aus der Summenformel (3.42), wenn man bedenkt, daß durch Vertauschung der Elemente zweier Spalten alle geraden Permutationen (k1 , . . . , kn ) in ungerade übergehen und umgekehrt.  Bemerkung: Die beiden Eigenschaften (a) und (b) beschreibt man auch so: Die Determinante ist in jeder Spalte linear (nach Folgerung 3.2 entsprechend auch in jeder Zeile). Denn definiert man eine Abbildung f (x) := det(a1 , . . . , ak−1 , x, ak+1 , . . . , an ) ,

f : Rn → R ,

so bedeutet (a): f (x 1 + x 2 ) = f (x 1 ) + f (x 2 ) , und (b): f (λx) = λ f (x)

(für alle x 1 , x 2 , x ∈ Rn , λ ∈ R).

Dadurch ist aber gerade eine lineare Abbildung definiert (vgl. Abschn. 2.4.5). Da die »Determinantenfunktion« det : Mat(n; R) → R also bzgl. jeder Matrixspalte linear ist, nennt man sie kurz multilinear. Aus den Grundgesetzen leiten wir weitere Rechenregeln her. Satz 3.12: Es sei A eine reelle (n, n)- Matrix. (e) Addiert man ein Vielfaches eines Spaltenvektors von A (bzw. Zeilenvektors) zu einem anderen, so bleibt die Determinante von A unverändert: det(. . . , ai , . . . , ak + λai , . . .) = det(. . . , ai , . . . , ak , . . .)

(λ ∈ R) (3.44)

(f) Hat A zwei gleiche Spalten (oder Zeilen), so ist die Determinante det A gleich Null: det(. . . , a, . . . , a, . . .) = 0 .

(3.45)

(g) Ist einer der Spalten-oder Zeilenvektoren in A gleich 0, so folgt det A = 0, d.h. det(. . . , 0, . . .) = 0 . Beweis: Wegen det A = det AT brauchen wir die Regeln nur für Spalten zu beweisen.

(3.46)

3.4 Determinanten

173

Zu (f): Vertauscht man die beiden gleichen Spalten a, so ändert sich an det A natürlich nichts. Andererseits geht det A dabei aber in − det A über (nach (c)), also gilt det A = − det A, d.h. det A = 0. Zu (e): Man addiere auf der rechten Seite von (3.44) det(. . . , ai , . . . , λai , . . .) = λ det(. . . , ai , . . . , ai , . . .) = 0 .  k-te Spalte

Grundgesetz (a) liefert dann (3.44). Alle hierbei betrachteten Matrizen unterscheiden sich nur in der k-ten Spalte. Zu (g): Multipliziert man die Nullspalte von A mit −1, so ändert sich A natürlich nicht. Herausziehen des Faktors −1 aus det A liefert daher − det A = det A, also det A = 0.  Der Ausdruck Grundgesetze in Satz 3.11 wird durch folgenden Satz gerechtfertigt. Satz 3.13: Durch die Grundgesetze (a) bis (d) ist det A eindeutig bestimmt11 Wir wollen die Aussage des Satzes vor dem Beweis etwas präzisieren: »Ist F : Mat(n; R) → R eine Funktion, die jeder reellen (n, n)-Matrix A genau eine reelle Zahl F( A) zuordnet, wobei F den Gesetzen (a) bis (d) gehorcht (mit F an Stelle von det), so gilt F( A) = det A für alle Matrizen A ∈ Mat(n; R).« Beweis: F sei eine solche Funktion und A = [aik ]n,n eine reelle Matrix. Wir schreiben die Spalten von A in der Form ak =

n 

aik ek

i=1

mit den Koordinateneinheitsvektoren ek ∈ Rn . Zur besseren Unterscheidung wird der Summationsindex i noch durch i k ersetzt. Damit ist ⎞ ⎛ n n   F( A) = F ⎝ ai1 1 ei1 , . . . , ain n ein ⎠ . i 1 =1

i n =1

Sukzessives Anwenden von (a) und (b) liefert  F( A) = ai1 1 · . . . · ain n F(ei1 , . . . , ein ) .

(3.47)

(i 1 ,...,i n )

Dabei wird über alle n-Tupel (i 1 , . . . , i n ) summiert, wobei die Elemente aus {1, . . . , n} stammen. Nun ist F(ei1 , . . . , ein ) = 0, falls zwei Spalten darin übereinstimmen (denn Vertauschung 11 Der praxisorientierte Leser mag die folgende Ausführung und den Beweis überspringen

174

3 Matrizen

dieser Spalten ändert einerseits das Vorzeichen andererseits aber gar nichts, somit muß der Funktionswert Null sein). Es wird also nur noch über die n-Tupel (i 1 , .., i n ) summiert, in denen alle Elemente verschieden sind, d.h. über alle Permutationen aus Sn . Für eine solche Permutation (i 1 , . . . , i n ) ist aber F(ei1 , . . . , ein ) = sgn(i 1 , . . . , i n ) .

(3.48)

Kann man nämlich (ei1 , . . . , ein ) durch eine gerade Anzahl paarweiser Spaltenvertauschungen in E überführen, ist (i 1 , . . . , i n ) eine gerade Permutation, folglich sgn(i 1 , . . . , i n ) = 1 und F(ei1 , . . . , ein ) = F(E) = 1 wegen (c). Entsprechendes gilt im ungeraden Fall. Damit ist (3.47) die Summenformel für det AT , also F( A) = det AT = det A, womit alles bewiesen ist.  Bemerkung: (a) Die Grundgesetze (a) bis (d) in Satz 3.11 werden häufig auch zur Definition der Determinanten herangezogen. Man leitet aus ihnen dann die Summenformel her, indem man wie im Beweis von Satz 3.13 vorgeht. (b) Alles Gesagte gilt völlig analog für quadratische Matrizen mit Elementen aus einem beliebigen Körper K, insbesondere für komplexe Matrizen. Übung 3.15* Wie läßt sich die Determinante det(a, b, a − 3b + π c) vereinfachen?

Übung 3.16* Es sei A = [aik ]n,n eine Matrix mit A = − AT (man nennt A schiefsymmetrisch). Ferner sei n ungerade. Zeige: Dann gilt det A = 0.

3.4.3

Berechnung von Determinanten mit dem Gaußschen Algorithmus

Die numerische Berechnungsmethode für Determinanten fußt auf folgendem Satz: Satz 3.14: Die Determinante einer »Dreiecksmatrix« ⎡ ⎤ a11 a12 . . . a1n ⎢ 0 a22 . . . a2n ⎥ ⎢ ⎥ A=⎢ . .. ⎥ d.h. aik = 0 für i > k , .. .. ⎣ .. . . . ⎦ 0

0

· · · ann

ist gleich dem Produkt ihrer Diagonalelemente aii : det A = a11 · a22 · . . . · ann .

3.4 Determinanten

175

Beweis: Dies folgt unmittelbar aus der Summendarstellung (3.42) in der Determinantendefinition. Denn alle Glieder a1k1 ·a2k2 ·. . .·ankn mit (k1 , k2 , . . . , kn )  = (1,2, . . . , n) sind Null, da sie einen Faktor aik = 0 mit i > k enthalten. Es bleibt in der Summe nur das Glied a11 · a22 · . . . · ann übrig.  Numerische Berechnung von Determinanten. Der Gaußsche Algorithmus ist das gängigste numerische Verfahren zur Berechnung der Determinante einer Matrix A = [aik ]n,n . Wir verwenden ihn genauso, als wollten wir das Gleichungssystem n 

aik xk = 0 ,

(i = 1, . . . n)

k=1

lösen (s. Abschn. 2.2.1). Die im Gaußschen Algorithmus auftretenden Additionen von Zeilen zu anderen Zeilen ändern den Zahlenwert der Determinante von A nicht (nach (e)). Es bleibt lediglich zu beachten, daß bei Zeilen-oder Spaltenvertauschungen, die beim Gaußschen Algorithmus nötig sein können, das Vorzeichen der Determinante wechselt. Diese Vertauschungen sind während der Rechnung mitzuzählen. Schließlich entsteht eine Dreiecksmatrix (Trapezsysteme ergeben auch Dreiecksmatrizen, wenn auch mit Nullzeilen im unteren Bereich der Matrix). Nach Satz 3.14 ist aber die Determinante der Dreiecksmatrix leicht zu berechnen. Multipliziert man sie noch mit (−1)t , wobei t die Anzahl der vorgekommenen Zeilen- oder Spaltenvertauschungen ist, so hat man die Determinante von A berechnet.

Beispiel 3.7: Es sei



1 −2 ⎢3 4 A=⎢ ⎣6 8 2 1

9 1 −2 3

⎤ −3 3⎥ ⎥. 1⎦ 10

Zu berechnen ist die Determinante det A! Der Gaußsche Algorithmus (mit Spaltenpivotierung) liefert die Determinante auf folgendem Wege:     1 −2 9 −3 1. und 3. Zeile 6 8 −2 1      3 4 3 4 1 3  vertauschen 1 3    det A =  = −   6 8 −2 1  1 −2 9 −3 2 1 2 1 3 10  3 10  Die mit dem Faktor 12 multiplizierte erste Zeile wird von der zweiten Zeile subtrahiert, entsprechend wird das 16 -fache der ersten Zeile von der dritten Zeile subtrahiert und das 13 -fache der ersten Zeile von der vierten Zeile abgezogen. Das dadurch erhaltene Ergebnis wird nun wie folgt

176

3 Matrizen

weiter umgeformt:12     6 6 8 −2 1  8 −2 1    0 0 2 2,5  2. und 3. Zeile 0 −3, 3 9, 3 −3,16 =  = −  det A  vertauscht 0 2 2,5  3 9, 3 −3,16 0 −3, 0     0 −1, 6 3, 6 0 −1, 6 3, 6 9, 6 9, 6      6 6 8 −2 1  8 −2 1    0 −3, 3 9, 3 −3,16 auf die 4. Zeile wird 0 −3, 3 9, 3 −3,16 von der 4. Zeile wird    = =  1 · 2. Zeile subtrahiert 0 0 2 2,5  12 · 3. Zeile addiert 0 0 2 2,5   2 0 0 0 −1 11,25  0 0 12,50  = 6 · (−3, 3) · 2 · 12,50 = −500 .

(3.49)

Nach dieser Methode wird auf dem Computer üblicherweise vorgegangen. Beim Handrechnen, unterstützt durch Taschenrechner (wenn der Großcomputer mal nicht zur Verfügung steht), kann man aber auch die spezielle Struktur einer Matrix ausnutzen. Insbesondere vereinfachen die Zahlen 1 und 0 in der Matrix gelegentlich die Rechnung. Wählt man nämlich 1 als Pivotelement, so spart man schon einige Divisionen ein. Im Folgenden zeigen wir dies an der gleichen Matrix A. Wir wählen dabei die 1 in der linken oberen Ecke als Pivotelement, da sie dort schon so bequem steht. Es werden also zunächst Vielfache der ersten Zeile von den übrigen subtrahiert:     1 −2 9 −3 1 −2 9 −3    3 4 1 3  0 10 −26 12  (3.50) det A =   = 6 8 −2 1  0 20 −56 19  2 1 15 16  3 10  0 5 In der zweiten Spalte bietet sich die 5 als Pivotelement an, da sie 10 und 20 teilt:      1 −2 1 −2 1 −2 9 −3 9 −3  9    0 5 −15 16  0 5 −15 16  0 5 −15  = −  = − det A = −   0 0 0 0 4 −45 4 0 20 −56 19    0 10 −26 16  0 0 0 0 4 −20 0 = −1 · 5 · 4 · 25 = −500 . Folgerung 3.3: Es sei A = [aik ]n,n folgendermaßen in Blöcke Aik zerlegt: ⎡ ⎤ A11 A12 · · · A1N ⎢ 0 A22 · · · A2N ⎥ ⎢ ⎥ A=⎢ . .. ⎥ , .. ⎣ .. . . ⎦ 0

···

0

AN N

12 Es bedeutet 3, 3 = 3,3333 . . ., also die Periode 3 in der Dezimalzahl. 9, 3, 3,16 usw.entsprechend.

 −3  16  −45 25 

3.4 Determinanten

177

wobei die Blöcke A11 , . . . , Ann in der Diagonalen quadratische Matrizen sind, und Aik = 0 für i > k ist ( A »Dreiecksblockmatrix«). Damit folgt det A = det A11 det A22 · . . . · det A N N .

(3.51)

Die Determinante der »Dreiecksblockmatrix« A ist also das Produkt der »Diagonaldeterminanten«. Beweis: Man stelle sich den Gaußschen Algorithmus zur Determinantenberechnung vor Augen, den man so durchführen kann, daß die Zeilen- und Spaltenvertauschungen die Blockzerlegung nicht verändern. Dabei wird jede Diagonalmatrix Aii so auf Dreiecksform gebracht, als ob man den Gaußschen Algorithmus nur auf Aii anwenden würde, unabhängig von allen anderen Blöcken Aik . Diagonalelemente in der resultierenden Dreiecksmatrix sind schließlich ganz entsprechend der Anordnung der Diagonalmatrizen A11 , A22 , . . . , A N N aufgereiht, woraus (3.51) folgt.  Beispiel:   7   5   0   0   2   0   0   0

2 3 0 0

9 6 2 −1 7 3 5 9

8 1 2 0

        7 2  2 1 = ·   5 3 −1 6 = 11 · 13 = 143 ,      12  3 1 −1    −1  = 2 · 5 2 6  = 2 · 76 = 152 .  6  9 0 4  4  1 12 1 6

Das letzte Beispiel beruht auf einem wichtigen Spezialfall von (3.51), nämlich der Formel   a bT    (3.52) 0 C  = a · det C , mit a ∈ R, bT Zeilenmatrix, C quadratische Matrix. Diese einfache und ehrbare Formel ist bei Handrechnungen mit Determinanten recht nützlich, da sie Schreibarbeit einspart. Wir zeigen dies an der gleichen Determinante wie in Beispiel 3.7, indem wir die Rechnung in (3.50)ff kürzer schreiben: Beispiel 3.7 Fortsetzung  1 −2 9  3 4 1 det A =  6 8 −2  2 1 3   5 −15  = − 20 −56 10 −26

  −3 10   3 20 = 1 ·   1 5  10   16 4  19 = −5 ·  4 19

 −26 12 −56 19 −15 16  −45 = −5 · 4 · 25 = −500 . −20

178

3 Matrizen

Man kann hierbei auch die dreireihige Determinante (rechts in der ersten Zeile direkt mit der Sarrusschen Regel13 berechnen (s. Abschn. 1.2.4), wodurch weitere Schreibarbeiten und damit auch Fehlerquellen gemindert werden.

Übung 3.17* (a) Berechne die Determinanten  3  −1  det D1 =   10  −4

9 1 2 −3

5 8 −1 1

 6  −2 , 5  7

 1  3   det D2 =  12  −2  1

−1 1 −4 15 −5

0 −2 5 −6 10

3 7 0 3 8

 15  2   −2  4  5

 D B (b) Es sei A = eine Blockzerlegung, wobei B quadratisch p-reihig und C quadraC 0 tisch q-reihig ist. Zeige: det A = (−1) pq det B · det C.

3.4.4

Matrix-Rang und Determinanten

Satz 3.15: (Regularitätskriterium) Eine quadratische Matrix ist genau dann regulär, wenn ihre Determinante ungleich Null ist: A regulär ⇐⇒ det A = 0 .

(3.53)

Beweis: Beim Gaußschen Algorithmus für das lineare Gleichungssystem Ax = 0 ( A quadratische Matrix) entsteht aus A genau dann eine Dreiecksmatrix mit nicht verschwindenden Diagonalgliedern, wenn A regulär ist (nach Satz 2.9, Abschn. 2.2.4). Nach dem letzten Abschnitt ist aber | det A| = |Produkt der Diagonalglieder| = 0.  Beispiel 3.8: Die Drehmatrix  cos α D= − sin α

sin α cos α



in der Ebene (s. Beispiel 2.29, Abschn. 2.4.5) ist für jeden Winkel α regulär, denn man errechnet det D = 1. 13 Die Sarrussche Regel (nach Pierre Frédéric Sarrus (1798 – 1861), französischer Mathematiker) gilt nur für dreireihige Determinanten!

3.4 Determinanten

179

Wir betrachten nun eine beliebige Matrix A = [aik ]m,n . Die Determinante einer quadratischen r -reihigen Untermatrix von A nennen wir eine Unterdeterminante von A mit der Zeilenzahl r ,14 oder kurz eine r -reihige Unterdeterminante von A. Damit gilt Satz 3.16: (Rangbestimmung durch Determinanten) Es sei A = [aik ]m,n eine beliebige Matrix. A hat genau dann den Rang p, wenn Folgendes gilt: (a) Es gibt maximal eine p-reihige, nichtverschwindende Unterdeterminante von A. (b) Jede Unterdeterminante von A, deren Zeilenzahl größer als p ist, verschwindet15 . Man drückt dies kürzer so aus: Der Rang einer Matrix ist die größte Zeilenzahl nichtverschwindender Unterdeterminanten der Matrix. Beweis: A hat den Rang p; das bedeutet: Es gibt maximal p linear unabhängige Spaltenvektoren von A. ˆ Zu (a): Wir wählen p linear unabhängige Spaltenvektoren aus. Sie bilden eine Untermatrix A T ˆ = p kann man p linear unabhängige Zeilenvektoren aus A ˆ ˆ = Rang A von A. Wegen Rang A ˆ ˆ ˆ und damit von A. A ˆ von A ˆ ist quadratisch, p-reihig auswählen. Sie formieren eine Untermatrix A ˆˆ = 0. und regulär (da die Zeilen linear unabhängig sind). Satz 3.15 liefert also det A

Zu (b): In jeder quadratischen q-reihigen Untermatrix A0 von A mit q > p sind die Spalten linear abhängig (da p = Rang A). A0 ist also nicht regulär, woraus mit Satz 3.15 det A0 = 0 folgt.  Beispiel 3.9: Für ⎡ 5 ⎢0 A=⎢ ⎣0 0 errechnet man

1 3 5 2

 3  det A = 5 · 5 2

2 −1 4 8

⎤ 4 11 ⎥ ⎥ 7 ⎦ −10

 −1 11  4 7  = 5 · 0 = 0 , 8 −10

aber

 5  0  0

1 3 5

 2  −1 = 85 . 4

Also folgt Rang A = 3. 14 Dies ist eine abkürzende Sprechweise für den Satz: »r ist die Zeilenzahl der Untermatrix, deren Determinante betrachtet wird.« 15 »a verschwindet« bedeutet a = 0.

180

3 Matrizen

Bemerkung: Für numerische Rangberechnungen ist der Gaußsche Algorithmus vorzuziehen (s. Abschn. 3.2.3). Doch für parameterabhängige Matrizen und theoretische Überlegungen ist die Charakterisierung des Rangs durch Determinanten oft nützlich. Übung 3.18* Welchen Rang hat die Matrix ⎡

0 ⎢1 ⎢ ⎢ A = ⎢0 ⎢ ⎣0 0

1 0 1 0 0

0 1 0 1 0

0 0 1 0 1

⎤ 0 0⎥ ⎥ ⎥ 0⎥ ? ⎥ 1⎦ 0

Übung 3.19: Zeige: Ax = b hat genau dann höchstens eine Lösung x, wenn der Rang von A gleich der Spaltenzahl von A ist. ( A beliebige reelle (m, n)-Matrix, x ∈ Rn , b ∈ Rm ).

3.4.5

Der Determinanten-Multiplikationssatz

Satz 3.17: (Multiplikationssatz) Sind B und A zwei beliebige quadratische n-reihige reelle Matrizen, so gilt det(B A) = det B · det A .

(3.54)

Beweis: Im Falle det B = 0 ist die Gleichung erfüllt, denn B ist in diesem Falle nicht regulär, also ist auch AB nicht regulär (nach Satz 3.6, Abschn. 3.3.1), folglich gilt det(B A) = 0. Im Falle det B = 0 definieren wir F( A) :=

det(B A) , det(B)

(3.55)

wobei wir uns B als fest und A als variabel vorstellen. F ist eine Funktion, die Mat(n; R) in R abbildet. Schreibt man mit den Spalten a1 , . . . , an von A F( A) = F(a1 , . . . , an ) =

det(Ba1 , . . . , Ban ) det B

(wobei Ba1 , . . . , Ban die Spalten von B A sind), so stellt man leicht fest, daß F die Grundgesetze (a), (b), (c), (d) aus Satz 3.11 erfüllt, wenn man dort »det « durch »F « ersetzt. Nach dem Eindeutigkeitssatz (Satz 3.13, Abschn. 3.4.2) ist damit F( A) = det( A) für alle A ∈ Mat(n; R), woraus mit (3.55) die Behauptung des Satzes folgt. 

3.4 Determinanten

181

Bemerkung: (a) Der Multiplikationssatz (nebst Beweis) gilt für Matrizen mit Elementen aus einem beliebigen Körper K ebenso, insbesondere für K = C. (b) Der Beweis des Satzes zeigt, wie elegant die Eindeutigkeitsaussage des Satzes 3.13 hier die Beweisführung ermöglicht. (c) Mit GL(n; K)16 bezeichnet man die multiplikative Gruppe aller regulären n-reihigen Matrizen mit Elementen aus K. Der Multiplikationssatz besagt nun, daß det : GL(n, K) → K \ {0} ein Homomorphismus von GL(n, K) auf die multiplikative Gruppe K\{0} ist. Folgerung 3.4: Ist A regulär, so folgt det( A−1 ) =

1 . det( A)

(3.56)

Beweis: det( A−1 ) det( A) = det( A−1 A) = det E = 1.



Übung 3.20: Es seien A, B zweireihige reelle quadratische Matrizen. Es gilt det( AB) = det A · det B. Wie viele Multiplikationen benötigt man auf der linken Seite zum Auswerten (zuerst AB bilden, dann det( AB) berechnen), und wie viele auf der rechten Seite (zuerst det A und det B berechnen, dann ihr Produkt)? Welche Rechnungsart ist weniger aufwendig?

3.4.6

Lineare Gleichungssysteme: die Cramersche Regel

Gelöst werden soll das quadratische lineare Gleichungssystem a11 x1 + a12 x2 + . . . + a1n xn = b1 a21 x1 + a22 x2 + . . . + a2n xn .. . an1 x1 + an2 x2 + . . . + ann xn

= b2 , .. .

(3.57)

= bn

wobei die Matrix A = [aik ]n,n regulär ist. Mit den Spaltenvektoren a1 , . . . , an der Matrix A und dem Spaltenvektor b aus den b1 , . . . , bn der rechten Seite lautet das Gleichungssystem: n 

xk ak = b .

k=1

16 Aus dem Englischen: »General Linear Group«.

(3.58)

182

3 Matrizen

In Abschn. 1.1.7, (1.69), und Abschn. 1.2.7, (1.99), haben wir schon die Cramersche Regel für zwei- und dreireihige lineare Gleichungssysteme kennengelernt. Man vermutet daher den folgenden Satz, der die genannten Formeln auf beliebige n-reihige Gleichungssysteme erweitert: Satz 3.18: (Cramersche Regel) Die Lösung x = [x1 , . . . , xn ]T des linearen Gleichungssystems (3.57) ergibt sich aus der Formel xi =

det(a1 . . . . , ai−1 , b, ai+1 , . . . , an ) , det A

i = 1,2, . . . , n .

(3.59)

Bemerkung: Zur Berechnung von xi hat man also in A die i-te Spalte durch b zu ersetzen, die Determinante zu bilden und durch det A zu dividieren. Beweis: Wir wissen, daß das Gleichungssystem (3.57) eine Lösung x T = [x1 , . . . , xn ] hat, da A regulär ist. Für diese x1 , . . . , xn gilt also (3.58). Es folgt somit Di := det(a1 , . . . , ai−1 , b, ai+1 , . . . , an ) = det(a1 , . . . , ai−1 ,

n 

xk ak , ai+1 , . . . , an ) .

(3.60)

k=1

Zur i-ten Spalte in (3.60) addiert man nacheinander −x1 a1 , . . . , xi−1 ai−1 , −xi+1 ai+1 , . . . , −xn an . Der Wert der Determinante bleibt dabei unverändert (nach Abschn. 3.4.2, Satz 3.12(e)), d.h. es folgt Di = det(a1 , . . . , ai−1 , xi ai , ai+1 , . . . , an ) = xi det A , also xi = Di / det A, was zu beweisen war.



Bemerkung: Die Cramersche Regel ist eine explizite Auflösungsformel für reguläre lineare Gleichungssysteme. Im Falle n ≥ 4 ist allerdings bei numerischen Problemen der Gaußsche Algorithmus vorzuziehen. Trotzdem ist die Auflösungsformel sehr wertvoll, denn im Falle parameterabhängiger Matrizen A oder bei theoretischen Herleitungen verwendet man diese Auflösungsformel oft mit Erfolg. Übung 3.21* Löse das folgende Gleichungssystem mit der Cramerschen Regel: =0 3x1 + x2 − x3 −x1 +2x2 + x3 − 5x4 = 2 7x2 + x3 + x4 = 0 2x1 −4x2 + 8x3 − 3x4 = 0 .

3.4 Determinanten

3.4.7

183

Inversenformel

Die Inverse einer regulären Matrix A = [aik ]n,n ist die Lösung X der folgenden Gleichung: AX = E .

(3.61)

Mit X = [xik ]n,n = [x 1 , . . . , x n ], E = [e1 , . . . , en ] lassen sich die Spalten in (3.61) so schreiben: Ax 1 = e1 ,

Ax 2 = e2 , . . . ,

Ax n = en .

(3.62)

Dies sind n lineare Gleichungssysteme für die »Unbekannten« x 1 , . . . , x n . Jedes dieser Systeme soll nun mit der Cramerschen Regel gelöst werden. Wir greifen uns Ax k = ek heraus, ausführlicher geschrieben als a1 x1k + . . . + an xnk = ek ,

(3.63)

wobei A = [a1 , . . . , an ] ist. Die Cramersche Regel liefert xik =

det(a1 , . . . , ai−1 , ek , ai+1 , . . . , an ) . det A

(3.64)

Damit ist eine Formel für die Elemente von X = A−1 gewonnen. Die Determinante im Zähler soll noch etwas vereinfacht werden. Zuerst geben wir ihr einen wohlklingenden Namen: Definition 3.11: (a) Es sei A = [aik ]n,n = [a1 , . . . , an ], n ≥ 2, eine quadratische Matrix17 . Man bezeichnet dann die Werte αik = det(a1 , . . . , ai−1 , ek , ai+1 , . . . , an )

(3.65)

als Kofaktoren oder algebraische Komplemente von A (ek ist der k-te Koordinateneinheitsvektor). (b) Die Matrix aus diesen αik heißt Adjunkte oder komplementäre Matrix adj A := [αik ]n,n .

(3.66)

Im Falle det A = 0 gilt also nach (3.64) A−1 =

adj A . det A

(3.67)

Mit Aik wird die (n − 1, n − 1)-reihige Untermatrix von A bezeichnet, die durch 17 Ab hier wird in diesem und im folgenden Abschnitt stets n ≥ 2 vorausgesetzt.

184

3 Matrizen

Streichen der i-ten Zeile und der k-ten Spalte aus A hervorgeht: ⎤ ⎡ a11 · · · a1k · · · a1n ⎢ .. .. ⎥ ⎢ . . ⎥ ⎥ ⎢ ⎢ Aik = ⎢ ai1 · · · aik · · · ain ⎥ ⎥ (n ≥ 2) . ⎥ ⎢ . . .. ⎦ ⎣ .. an1 · · · ank · · · ann

(3.68)

Folgerung 3.5: Für die Kofaktoren von A gilt αik = (−1)i+k det Aki

für alle i, k = 1, . . . , n .

(3.69)

Man beachte, daß i, k in Aki gegenüber αik vertauscht sind. Beweis: In αik = det(a1 , . . . , ai−1 , ek , ai+1 , . . . , an ) steht am Schnittpunkt der i-ten Spalte und k-ten Zeile eine 1, während alle anderen Elemente der i-ten Spalte gleich 0 sind. Durch i − 1 Vertauschungen benachbarter Spalten bringt man nun ek in die erste Spalte, dann wird die 1 in der k-ten Zeile der ersten Spalte durch k − 1 Vertauschungen benachbarter Zeilen in die linke obere Ecke plaziert. So entsteht eine Determinante der Form    1 ∗ ∗ ··· ∗     0     ..  = det Aki .  .  Aki    0  Wegen der i + k − 2 Zeilen- und Spaltenvertauschungen unterscheidet sie sich von der ursprünglichen Determinante αik um den Faktor (−1)i+k−2 , womit (3.69) bewiesen ist.  Die Formeln (3.67), (3.66), (3.68), (3.69) ergeben den folgenden zusammenfassenden Satz Satz 3.19: (Inversenformel) Ist A = [aik ]n,n regulär (n ≥ 2), so folgt ⎡ A−1 =

det A11 − det A21 .. .

1 ⎢ ⎢ ⎢ det A ⎣ (−1)1+n det An1

− det A12 det A22 .. .

(−1)2+n det An2

··· ··· ···

⎤T (−1)1+n det A1n (−1)2+n det A2n ⎥ ⎥ ⎥ . .. ⎦ . det Ann

3.4 Determinanten

185

Beachte, daß die Matrix rechts transponiert ist! Die Vorzeichen in der Matrix sind »schachbrettartig« verteilt: ⎡

⎢+ ⎢ ⎢− ⎢ ⎢ ⎢+ ⎢ ⎢ ⎢− ⎢ ⎢. ⎢ .. ⎣ .. .



+

+





+

+



...

...

..⎤ .⎥ ..⎥ + .⎥ ⎥ ..⎥ − .⎥ ⎥. ..⎥ + . . . .⎥ ⎥ .. .⎥ . . . . ..⎥ ⎦ .. .. . ... . − ...

Beispiel 3.10: ⎡

3 A = ⎣1 7

8 0 2

⎤ 4 1⎦ ⇒ A−1 1

⇒ A−1

     ⎡     1 0⎤T 0 1 − 1 1   7 1 7 2⎥ ⎢ 2 1 ⎢      ⎥ 3 4 3 8⎥ 1 ⎢ ⎢ 8 4   − ⎥ = ⎢−      ⎥ 2 1 7 1 7 2 ⎢ ⎥ 50 ⎢      ⎥ ⎣ 8 4   3 8⎦   − 3 4   0 1 1 1 1 0 ⎡ ⎤T ⎡ −2 6 2 −2 0 1 ⎣ 1 ⎣ 6 −25 0 −25 50 ⎦ = = 50 8 50 2 1 −8 50

⎤ 8 1⎦. −8

Bemerkung: Für große Matrizen (n ≥ 4) benutzt man meistens den Gaußschen Algorithmus zur Berechnung von A−1 (s. Abschn. 3.3.2). Übung 3.22* Berechne mit der Inversenformel die Inversen von

A=

5 −1



8 , 3



6 ⎢ B=⎣4 10

7 −3 1



1 ⎥ 5⎦, −1



0 ⎢0 ⎢ C=⎢ ⎣1 0

1 0 0 0

0 0 0 1

⎤ 0 1⎥ ⎥ ⎥. 0⎦ 0

Übung 3.23: Es sei R = [rik ]n,n eine reguläre »rechte Dreiecksmatrix«, d.h. rik = 0, falls i > k und rii  = 0 für alle i = 1, . . . n. Zeige mit der Inversenformel, daß auch R−1 eine rechte Dreiecksmatrix ist.

186

3 Matrizen

3.4.8

Entwicklungssatz

Aus (3.67) im vorigen Abschnitt folgt im Falle det A  = 0: (adj A/ det A) A = E, also (adj A) A = (det A)E. Wir zeigen, daß dies auch im Falle det A = 0 richtig ist: Satz 3.20: (Adjunkten-Satz) Für jede quadratische Matrix A = [aik ]n,n mit n ≥ 2 gilt (adj A) A = (det A)E ,

(3.70)

wobei E eine Einheitsmatrix von gleicher Zeilenzahl wie A ist. Beweis: Wir schreiben zur Abkürzung (adj A) A = (cik )n,n , wobei n die Zeilenzahl von A ist. Damit gilt cik =

n 

αi j · a jk =

j=1

n 

a jk · det(a1 , . . . , ai−1 , e j , ai+1 , . . . , an )

j=1



= det ⎝ a1 , . . . , ai−1 ,

n 

⎞ a jk e j , ai+1 , . . . , an ⎠ .

j=1

Die letzte Gleichheit folgt aus der Linearität der Determinante bzgl. der i-ten Spalte. Die Summe in der i-ten Spalte der letzten Determinante ist gleich ak , also folgt cik = det(a1 , . . . , ai−1 , ak , ai+1 , . . . , an )  1 , falls i = k, = δ jk det A , δik = 0 , falls i  = k. δik det A ist das Element an der Stelle (i, k) der Matrix (det A)E, womit (3.70) bewiesen ist.  Schreibt man das Element an der Stelle (i, k) bzgl. der Gleichung (3.70) hin, so erhält man n 

αi j a jk = (det A)δik

(i, k = 1, . . . , n) .

(3.71)

j=1

Für den Fall i = k erhalten wir, nach Vertauschen der Gleichungsseiten det A =

n  j=1

und mit (3.69):

αk j a jk .

(3.72)

3.4 Determinanten

187

Satz 3.21: (Entwicklungssatz nach Spalten) Für jedes k ∈ {1, . . . , n} gilt det A =

n 

a jk (−1) j+k det A jk .

(3.73)

j=1

(Entwicklungssatz nach Zeilen): Für jedes i ∈ {1, . . . , n} gilt det A =

n 

ai j (−1)i+ j det Ai j .

(3.74)

j=1

Die zweite Gleichung folgt aus der ersten durch Übergang von A zu AT . Beide Gleichungen ergeben rekursive Berechnungsmethoden für Determinanten. Denn die n-reihige Determinante det A wird durch die Formeln auf die (n − 1)-reihigen Determinanten det Aik zurückgeführt. Diese kann man über die Entwicklungsformeln wiederum auf (n − 2)reihige Determinanten zurückführen usw. Man bezeichnet die rechte Seite in (3.73) auch als »Entwicklung der Determinante nach der k-ten Spalte« und (3.74) als »Entwicklung der Determinante nach der i-ten Zeile«. Oft werden die Entwicklungen nach der ersten Spalte bzw. ersten Zeile verwendet. Wir schreiben diese Spezialfälle daher noch einmal heraus: det A = det A =

n  j=1 n 

a j1 (−1) j+1 det A j1

Entwicklung nach der 1. Spalte,

(3.75)

a1 j (−1) j+1 det A1 j

Entwicklung nach der 1. Zeile.

(3.76)

j=1

Für dreireihige Determinanten sieht die Entwicklung nach der ersten Zeile so aus:         a11 a12 a13          a21 a22 a23  = a11 a22 a23  − a12 a21 a23  + a13 a21 a22  .  a32 a33  a31 a33  a31 a32   a31 a32 a33  Der Leser schreibe sich zur Übung die Entwicklungen nach der 2. und 3. Zeile auf, sowie die Entwicklungen nach den 3 Spalten. Ein Zahlenbeispiel: Beispiel 3.11: Für die folgende Matrix aus Mat(3; R) erhalten wir        3 5 2   6 −1 4 −1 4    −1 6    4  = 3  − 5  7 8 + 2  7  10 −8  7 10 −8

 6  10

= 3(−88) − 5(−20) + 2(−52) = −268 .

188

3 Matrizen

Bemerkung: Man erkennt, daß die Berechnung dreireihiger Determinanten durch die Entwicklung nach der ersten Zeile (oder einer anderen Zeile oder Spalte) etwas ökonomischer ist, als die Sarrussche Regel, Denn bei der Entwicklung nach einer Zeile oder Spalte werden 9 Multiplikationen ausgeführt, bei der Sarrusschen Regel aber 12. Im Zeitalter elektronischer Rechner ist dieser Unterschied im Rechenaufwand zwischen Summenformel und Entwicklungssatz aber fast bedeutungslos. Für numerische Zwecke ist allerdings der Gaußsche Algorithmus nach wie vor die bessere Methode zur Determinantenberechnung. Im Zusammenhang mit der schrittweisen Berechnung von Determinanten geben wir noch folgende Rekursionsformel an, die auch für theoretische Zwecke nützlich ist. Satz 3.22: Für die quadratische Blockmatrix A =

 a c

 bT mit a  = 0 (a Skalar) gilt B

 1 T det A = a · det B − cb . a 

(3.77)

Beweis: Beweis: Man rechnet nach, daß folgendes gilt:     a 0 a bT 1 − a1 bT   . = c B − a1 cbT c B 0 E Mit dem Determinantenmultiplikationssatz erhält man daraus (3.77). Übung 3.24* Berechne die folgenden Determinanten nach der ersten Zeile (s. (3.76)):    1 0 7 5   7 −1  6 −1 2    6 8,  3   5 9 3 12 −2  1 7 1 2

durch sukzessives Anwenden des Entwicklungssatzes  4 3 , 0  8

  0   0    0  a41

0 0 a32 a42

0 a23 a33 a43

 a14  a24  . a34   a44 

Übung 3.25* Beweise, daß für reguläre Matrizen A, B mit mindestens zwei Zeilen folgende Formeln gelten (a) det(adj A) = (det A)n−1 (b) adj(adj A) = (det A)n−2 A (c)

adj( AB) = adj B · adj A

(Benutze Satz 3.20) / (Verwende (3.67), Abschn. 3.4.7)



3.4 Determinanten

3.4.9

189

Zusammenstellung der wichtigsten Regeln über Determinanten

Es seien A = [aik ]n,n = [a1 , . . . , an ] und B = [bik ]n,n (n ≥ 2) beliebige quadratische Matrizen mit Elementen aus einem Körper K (insbesondere also aus R oder C). I. Summendarstellung der Determinante (Abschn. 3.4.1)  a11   det A =  ...  an1

 a1n   ..  = sgn(k1 , . . . , kn )a1k1 · . . . · ankn . .  (k ,...,k )∈S  n n 1 · · · ann ···

(3.78)

II. Transpositionsregel det A = det AT .

(3.79)

III. Grundregeln (Abschn. 3.4.2) det A = det(a1 , . . . , an ) ist in jeder Spalte linear, d.h.: (a) det(a1 + x, a2 , . . . , an ) = det(a1 , a2 , . . . , an ) + det(x, a2 , . . . , an )

(3.80)

(b) det(λa1 , a2 , . . . , an ) = λ det(a1 , a2 , . . . , an ) , (λ ∈ K)

(3.81)

und entsprechend für die zweite, dritte, . . . , n-te Spalte. (c) Vertauschen zweier Spalten ändert das Vorzeichen der Determinante. (a), (b), (c) gilt analog für alle Zeilen, (d) det E = 1

(Normierung).

(3.82)

IV. Weitere Regeln (Abschn. 3.4.2, 3.4.3) (e) Addiert man ein Vielfaches eines Spaltenvektors (bzw. Zeilenvektors) von A zu einem anderen, so bleibt die Determinante von A unverändert. (f) Hat A zwei gleiche Spalten (oder Zeilen), so ist die Determinante von A gleich Null. (g) Ist eine Spalte (oder Zeile) von A gleich 0, so ist die Determinante von A gleich Null. (h) Die Determinante einer Dreiecksmatrix A ist gleich dem Produkt ihrer Diagonalelemente: det A = a11 a22 . . . ann . (Satz 3.14, Abschn. 3.4.3). Hierauf fußt die Berechnung einer Determinante durch den Gaußschen Algorithmus, indem man die zugehörige Matrix durch die Schritte des Gaußschen Algorithmus in eine Dreiecksmatrix überführt (s. Abschn. 3.4.3).

190

3 Matrizen

V. Regularitätskriterium (Abschn. 3.4.4) A regulär ⇐⇒ det A  = 0.

(3.83)

M.a.W.: Genau dann ist det A  = 0, wenn die Spaltenvektoren (bzw. Zeilenvektoren) der quadratischen Matrix A linear unabhängig sind. VI. Rangbestimmung durch Determinanten (Abschn. 3.4.4) Der Rang einer Matrix ist die größte Zeilenzahl nichtverschwindender Unterdeterminanten der Matrix. VII. Determinantenmultiplikationssatz (Abschn. 3.4.5) det( AB) = det A det B

(3.84)

VIII. Cramersche Regel (Abschn. 3.4.6) Die Lösung x = [x1 , . . . , xn ]T des linearen Gleichungssystems Ax = b ( A regulär) erhält man aus xi =

det(a1 , . . . , ai−1 , b, ai+1 , . . . , an ) , det A

i = 1, . . . , n .

(3.85)

IX. Inversenformel (Abschn. 3.4.7) Es sei Aik . die Matrix, die aus A durch Streichen der i-ten Zeile und der k-ten Spalte hervorgeht. A regulär "⇒

A−1 =

T 1  (−1)i+k det Aik . n,n det A

(3.86)

X. Entwicklungssätze (Abschn. 3.4.8)

det A = det A =

n  j=1 n 

a jk (−1) j+k det A jk

Entwicklung nach der k-ten Spalte,

(3.87)

ai j (−1)i+ j det Ai j

Entwicklung nach der i-ten Zeile.

(3.88)

j=1

Übung 3.26* Es soll die Gleichung AX = B gelöst werden, wobei A, B bekannte n-reihige Matrizen mit Elementen aus einem Körper K sind und X eine gesuchte n-reihige quadratische Matrix darstellt. Es sei A regulär und n ≥ 2. Zeige, daß die Lösung X = [xik ]n,n durch folgende Formel

3.5 Spezielle Matrizen

191

gegeben ist: xik =

n 1  (−1) j+i (det A ji )b jk . det A

(3.89)

j=1

3.5

Spezielle Matrizen

Einige spezielle Typen von Matrizen, die häufig vorkommen, werden im Folgenden zusammengestellt. Beim ersten Durcharbeiten des Buches empfiehlt es sich, nur den einführenden Abschn. 3.5.1 zu lesen und dann gleich zum nächsten größeren Abschn. 3.8 überzugehen. Denn nach dem Einführungsabschnitt 3.5.1 werden die Eigenschaften der speziellen Matrizen im einzelnen erörtert und bewiesen. Damit der Leser nicht »auf Vorrat« lernen muß, kann er diese Teile überspringen oder »überfliegen«, um dann später bei Bedarf nachzuschlagen. 3.5.1

Definition der wichtigsten speziellen Matrizen

Vorbemerkung für komplexe Matrizen. Zu jeder komplexen Matrix A = [aik ]m,n definiert man die konjugiert komplexe Matrix A := [aik ]m,n 18 und damit die adjungierte Matrix T

A∗ := A ,

d.h. A∗ = [αik ]n,m

mit αik = aki .

(3.90)

Für rein reelle Matrizen A ist also A∗ = AT , d.h. adjungierte Matrix = transponierte Matrix. Die Verwandtschaft mit der Transposition zeigt sich auch in den Regeln für adjungierte Matrizen: Für alle komplexen (m, n)-Matrizen A und (n, p)-Matrizen B, sowie für alle λ ∈ C, gilt ( A∗ )∗ = A ,

( AB)∗ = B ∗ A∗ ,

(λ A)∗ = λ A∗ ,

( A∗ )−1 = ( A−1 )∗ , falls A regulär, x ∗ x > 0 für alle x = 0 , x ∈ Cn .

(3.91) (3.92) (3.93)

Die letzte Eigenschaft mit ihren Folgerungen (z.B. ( Ax)∗ ( Ax) ist reell und ≥ 0) stellt die eigentliche Motivation für die Operation ∗ dar. Wir stellen nun die wichtigsten Typen spezieller Matrizen in knapper Form zusammen. Definition 3.12: Eine quadratische Matrix A = [aik ]n,n mit Elementen aus einem Körper K trägt eine der folgenden Bezeichnungen, wenn die zugehörige Bedingung (rechts davon) erfüllt ist. Wir erwähnen noch: Die Elemente a11 , a22 , . . . , ann bilden die Hauptdiagonale von A, kurz: Diagonale. Sie heißen daher die (Haupt-)Diagonalelemente von A. 18 aik ist die zu aik konjugiert komplexe Zahl, d.h. es gilt: Re aik = Re aik , Im aik = − Im aik .

192

3 Matrizen

I. Diagonal-und Dreiecksform: (a) Diagonalmatrix, Schreibweise: A = diag(a11 , . . . , ann ) (b) Skalarmatrix (c) rechte Dreiecksmatrix

⇔ aik = 0 für i  = k (alle Elemente außerhalb der Hauptdiagonalen sind Null) ⇔ A = cE ⇔ aik = 0 für i > k

(d) linke Dreiecksmatrix

⇔ aik = 0 für i < k ⇔ A rechte Dreiecksmatrix und aii = 1 für alle i ⇔ A linke Dreiecksmatrix und aii = 1 für alle i

(e) (rechte) unipotente Matrix (f) (linke) unipotente Matrix II. Orthogonalität: (f) orthogonale Matrix (g) Permutationsmatrix

(h) unitäre Matrix



AT A = E und A reell ⇔ A = [ek1 , . . . , ekn ], wobei (k1 , . . . , kn ) eine Permutation von (1, . . . , n) ist. (eki Koordinateneinheitsvektoren) ⇔ A∗ A = E und A komplex

III. Symmetrie: symmetrische Matrix



AT = A und A reell

(j) schiefsymmetrische Matrix



AT = − A und A reell

(k) hermitesche Matrix19 (l) schiefhermitesche Matrix

⇔ ⇔

(i)

(m) positiv definite Matrix

(n) positiv semidefinite Matrix

(o) negativ definite Matrix (p) negativ semidefinite Matrix

A∗ = A und A komplex A∗ = − A und A komplex ⎧ ⎪ ⎪ falls A reell: x T Ax > 0 ⎪ ⎪ ⎪ ⎨für alle x ∈ Rn , x  = 0, und A symmetrisch ⇔ ⎪ ⎪ falls A komplex: x ∗ Ax > 0 ⎪ ⎪ ⎪ ⎩ für alle x ∈ Cn , x  = 0, und A hermitesch ⎧ ⎪ ⎪ falls A reell: x T Ax ≥ 0 ⎪ ⎪ ⎪ ⎨ für alle x ∈ Rn und A symmetrisch ⇔ ⎪ ⎪ ⎪ falls A komplex: x ∗ Ax ≥ 0 ⎪ ⎪ ⎩ für alle x ∈ Cn und A hermitesch ⇔ − A positiv definit ⇔ − A positiv semidefinit

3.5 Spezielle Matrizen

193

Mengenbezeichnungen O(n) = Menge der orthogonalen (n, n)-Matrizen, U(n) = Menge der unitären (n, n)-Matrizen, Sym(n) = Menge der symmetrischen (n, n)-Matrizen, Her(n) = Menge der hermiteschen (n, n)-Matrizen. Statt rechter Dreiecksmatrix sagt man auch obere Dreiecksmatrix oder Superdiagonalmatrix, während linke Dreiecksmatrizen auch untere Dreiecksmatrix oder Subdiagonalmatrix genannt werden. Den orthogonalen Matrizen wollen wir eine zweite Charakterisierung geben, die das Wort »orthogonal« rechtfertigt. Folgerung 3.6: Eine reelle (n, n)-Matrix A = [a1 , . . . , an ] ist genau dann orthogonal, wenn ihre Spaltenvektoren ein Orthonormalsystem bilden, d.h.  1 , falls i = k ai · ak = δik = (3.94) 0 , falls i  = k für alle i, k ∈ {1, . . . , n} erfüllt ist. Für die Zeilenvektoren von A gilt die entsprechende Aussage. Beweis: In AT A ist ai · ak das Element in der i-ten Zeile und der k-ten Spalte. AT A = E bedeutet daher gerade ai · ak = δik für alle i, k. Ferner gilt: A orthogonal ⇔ AT A = E ⇔ AT = A−1 ⇔ A AT = E ⇔ ( AT )T AT = E ⇔ AT orthogonal ⇔ die Spaltenvektoren von AT sind orthonormal ⇔ die Zeilenvektoren von A sind orthonormal.  Für komplexe Matrizen A = [a1 , . . . , an ] gilt die entsprechende Aussage: A unitär ⇔ ai · ak = δik ⇔ A∗ = A−1 ⇔ A∗ unitär ⇔ aˆ i · aˆ k = δik für die Zeilenvektoren von A. Zu den Permutationsmatrizen Ist P = [ek1 , . . . , ekn ] eine Permutationsmatrix und A eine reelle oder komplexe (n, m)-Matrix, so bewirkt die Linksmultiplikation von P mit A, P A,

eine Permutation der Zeilen von A

und die Rechtsmultiplikation von P mit einer (m, n)-Matrix A, A P,

eine Permutation der Spalten von A.

19 Nach dem französischen Mathematiker Charles Hermite, Paris, (1822 – 1901), der u.a. die Transzendenz von e bewies (1873).

194

3 Matrizen

Die Matrix-Schemata in den folgenden Figuren 3.11, 3.12 dienen der Veranschaulichung von Definition 3.12.

⎡ ⎢ ⎢ ⎢ ⎣

Diagonalmatrix d1 d2

0

..

0 .





⎥ ⎥ ⎥ ⎦

⎢ ⎢ ⎢ ⎣

dn

Rechte Dreiecksmatrix r11

r12 r22

0

··· ··· .. .

⎤ r1n r2n ⎥ ⎥ .. ⎥ . ⎦ rnn



Linke Dreiecksmatrix

t11 ⎢t21 ⎢ ⎢ . ⎣ .. tn1

t22 .. . tn2

0

..

. ···

⎤ ⎥ ⎥ ⎥ ⎦

tnn

= diag(d1 , . . . , dn ) Skalarmatrix ⎡ ⎢ ⎢ ⎢ ⎣

c

0

c

0

..

Rechte unipotente Matrix

. c





⎥ ⎥ ⎥ ⎦

⎢ ⎢ ⎢ ⎣

1

0

r12 1

··· ··· .. .

⎤ r1n r2n ⎥ ⎥ .. ⎥ . ⎦ 1

Linke unipotente Matrix ⎡

1

⎢t21 ⎢ ⎢ . ⎣ .. tn1

1 .. . tn2

..

. ···

0

⎤ ⎥ ⎥ ⎥ ⎦

1

= cE

Fig. 3.11: Diagonal- und Dreiecksmatrizen

orthogonale Matrix   0,8 −0,6 0,6 0,8 symmetrische Matrix ⎤ ⎡ 6 1 9 ⎣1 8 7⎦ 9 7 2

Permutationsmatrix   0 1 1 0 schiefsymmetrische Matrix ⎤ ⎡ 0 −1 9 ⎣1 0 7⎦ −9 −7 0



unitäre Matrix 0,8 ei α −0,6 ei(α+γ ) 0,6 ei β 0,8 ei(β+γ ) (α, β, γ reell)



positiv definite Matrix ⎤ ⎡ 5 −2 1 ⎣−2 6 −3⎦ 1 −3 4

Fig. 3.12: Orthogonale, unitäre und (schief-)symmetrische Matrizen

Der Nachweis, daß die letzte Matrix in Fig. 3.12 positiv definit ist, geschieht am einfachsten durch das Kriterium von Hadamard (Satz 3.35, Abschn. 3.5.7), auf das hier vorgegriffen wird. Und zwar hat man die drei »Hauptminoren« zu berechnen, das sind die Unterdeterminanten      5 −2 1   5 −2    = 26 , −2 6 −3 = 65 , 5 ,    −2 6   1 −3 4 

3.5 Spezielle Matrizen

195

die symmetrisch zur Hauptdiagonalen liegen und, beginnend mit 5 in der linken oberen Ecke, ineinander geschachtelt sind. Da diese »Hauptminoren«alle positiv sind, ist die Matrix positiv definit (nach dem zitierten Kriterium von Hadamard). Satz 3.35 in Abschn. 3.5.7, in dem auch das Kriterium von Hadamard enthalten ist, kann als »Ziel« dieses Abschn. 3.5 angesehen werden. Zu seiner Herleitung wird nahezu alles gebraucht, was vorher in 3.5.2 bis 3.5.6 beschrieben ist. Übung 3.27* Beweise: Sind A, B zwei orthogonale (n, n)-Matrizen, so gilt dies auch für AB.

3.5.2

Algebraische Strukturen von Mengen spezieller Matrizen

20

Die Summe zweier symmetrischer Matrizen ist wieder symmetrisch, das Produkt zweier orthogonaler Matrizen ist wieder orthogonal, die Inverse einer Permutationsmatrix ist wieder eine Permutationsmatrix usw. Um Aussagen dieser Form geschlossen ausdrücken zu können, benutzen wir die folgenden algebraischen Begriffe. (I) Eine nichtleere Menge V von (n, n)-Matrizen mit Elementen aus K bildet einen linearen Raum (von Matrizen) über K, wenn für je zwei Matrizen A, B ∈ V und für jedes λ ∈ K gilt A+ B ∈ V ,

λA ∈ V .

(3.95)

Es folgt sofort auch O ∈ V und − A ∈ V (aus λ A ∈ V mit λ = 0 bzw. λ = −1). (II) Eine nichtleere Menge G von regulären (n, n)-Matrizen bildet eine Gruppe (ausführlicher: Matrizengruppe), wenn mit A, B ∈ G folgt: AB ∈ G ,

A−1 ∈ G .

(3.96)

In diesem Fall folgt sofort auch E ∈ G, da nach (3.96) A−1 ∈ G und folglich A A−1 = E ∈ G gilt. (III) Eine nichtleere Menge M von (n, n)-Matrizen mit Elementen aus K heißt eine Algebra (ausführlicher Matrizenalgebra), wenn mit A, B ∈ M und λ ∈ K stets folgendes gilt A+ B ∈ M,

λA ∈ M ,

AB ∈ M .

Bemerkung: Die Begriffe »Gruppe« und »Linearer Raum« (= Vektorraum) sind in Abschn. 2.3 und 2.4 in voller Allgemeinheit erläutert. Der Leser braucht jedoch nicht nachzuschlagen. Die obigen Erklärungen reichen für das Verständnis des Folgenden völlig aus, da sie hier nur dazu dienen, eine übersichtliche und prägnante Sprechweise zu gewinnen. Auch auf den allgemeinen Begriff einer »Algebra« wird verzichtet. Die oben charakterisierten Matrizenalgebren reichen aus. 20 Wie schon erwähnt, wird dem Anfänger empfohlen, von hier ab die restlichen Abschnitte von 3.5 zu überschlagen.

196

3 Matrizen

Natürlich bildet die Menge Mat(n; K) aller (n, n)-Matrizen »über K«21 eine Matrizenalgebra. Für die eingeführten speziellen Matrizen gilt Folgendes: Satz 3.23: Jede der folgenden Matrizenmengen (mit Elementen aus einem Körper K) bildet eine Matrizenalgebra. Dabei werden alle Matrizen als n-reihig mit festem n angenommen: (a) die Diagonalmatrizen, (b) die rechten Dreiecksmatrizen, (c) die linken Dreiecksmatrizen. Der einfache Beweis bleibt dem Leser überlassen. Bemerkung: Die Skalarmatrizen sind durch c E  → c den Körperelementen aus K umkehrbar eindeutig zugeordnet und spiegeln sie auch in den Rechenoperationen wider. Aus diesem Grund liefern sie algebraisch nichts Neues. Satz 3.24: Lineare Räume über R sind (a) die Menge Sym(n) der n-reihigen symmetrischen Matrizen, (b) die Menge Sym− (n) der n-reihigen schiefsymmetrischen Matrizen. Lineare Räume über C sind dagegen (c) die Menge Her(n) der n-reihigen hermiteschen Matrizen, (d) die Menge Her− (n) der n-reihigen schiefhermiteschen Matrizen. Regulär sind offenbar die unipotenten, die orthogonalen und die unitären Matrizen (wie die Permutationsmatrizen als spezielle orthogonale Matrizen). Denn für unipotentes A ist det A = 1, und für orthogonales bzw. unitäres A existiert A−1 = AT bzw. A−1 = A∗ . Eine Dreiecks- oder Diagonalmatrix A ist genau dann regulär, wenn alle Diagonalelemente aii  = 0 sind. Somit folgt Satz 3.25: Jede der folgenden Matrizenmengen über K bildet eine Gruppe. Dabei werden alle Matrizen als n-reihig mit festem n angenommen: (a) die regulären Diagonalmatrizen, (b) die regulären rechten Dreiecksmatrizen, (c) die regulären linken Dreiecksmatrizen, (d) die rechten unipotenten Matrizen, (e) die linken unipotenten Matrizen, (f) die orthogonalen Matrizen (mit K = R), 21 Man sagt kurz »über K« statt »mit Elementen aus K«.

3.5 Spezielle Matrizen

197

(g) die unitären Matrizen (mit K = C), (h) die Permutationsmatrizen. Inklusionen dazu:  (b) , (b) ⊃ (d), (a) ⊂ (c) , (c) ⊃ (e),

(h) ⊂ (f) ⊂ (g).

(3.97)

Beweise hierzu sind teilweise schon in früheren Übungsaufgaben geführt. Den Rest erledigt der Leser leicht selbst. Übung 3.28: Beweise, daß der Raum Sym(n) die Dimension n(n + 1)/2 hat, und Sym− (n) die Dimension n(n − 1)/2 (n ≥ 2 vorausgesetzt). Hinweis: Der Dimensionsbegriff bei linearen Räumen (=Vektorräumen) ist in Abschn. 2.4.3, Definition 2.21 erklärt.

3.5.3

Orthogonale und unitäre Matrizen

Eine reelle (n, n)-Matrix A war orthogonal genannt worden, wenn AT A = E gilt. Der folgende Satz listet eine Anzahl dazu äquivalenter Bedingungen auf, von denen einige den engen Zusammenhang zur Geometrie im Rn verdeutlichen. Dabei nehmen wir auch die früher schon bewiesenen Aussagen mit auf. Satz 3.26: Eine reelle (n, n)-Matrix A ist genau dann orthogonal, wenn eine der folgenden gleichwertigen Bedingungen erfüllt ist: (a) A ist regulär, und es gilt A−1 = AT . (b) AT ist orthogonal, d.h, A AT = E. (c) Die Spaltenvektoren von A bilden eine Orthonormalbasis des Rn . (d) Die Zeilenvektoren von A bilden eine Orthonormalbasis des R1·n . (e) A führt jede Orthonormalbasis b1 , . . . , bn des Rn in eine Orthonormalbasis Ab1 , . . . , Abn über. (f) ( Ax) · ( A y) = x · y für alle x, y ∈ Rn . (g) | Ax| = |x| für alle x ∈ Rn . (h) | Ax − A y| = |x − y | für alle x, y ∈ Rn . Beweis: (a), (b), (c), (d) sind schon im Zusammenhang mit Folgerung 3.6 in Abschn. 3.5.1 erledigt. Zu (e): Die Matrix B = [b1 , . . . , bn ] ist eine orthogonale Matrix (nach (c)). Es gilt also B B T = E. Führt A nun b1 , . . . , bn in eine Orthonormalbasis über, so heißt das, daß AB = [ Ab1 , . . . ,

198

3 Matrizen

Abn ] eine orthogonale Matrix ist. Es gilt somit E = ( AB)( AB)T = AB B T AT = AE AT = A AT , also E = A AT , d.h. A ist orthogonal. Ist umgekehrt A orthogonal, so ist es AB = [ Ab1 , . . . , Abn ] auch, da das Produkt zweier orthogonaler Matrizen wieder orthogonal ist. Also ist Ab1 , . . . , Abn eine Orthonormalbasis. Zu (f): Ist A orthogonal, so folgt für alle x, y ∈ Rn : ( Ax) · ( A y) = ( Ax)T ( A y) = x T AT A y = x T y = x · y . Gilt umgekehrt (f), so folgt speziell für x = ei , y = ek : ( Aei ) · ( Aek ) = ei · ek = δik , ai = Aei ist aber die i-te Spalte von A, und ak = Aek die k-te Spalte. Es gilt somit ai · ak = δik , d.h. daß die Spalten von A ein Orthonormalsystem bilden, also daß A orthogonal ist. Für die übrigen Aussagen wird folgende Schlußkette bewiesen: (f) ⇒ (g) ⇒ (h) ⇒ (f). (f) ⇒ (g): | Ax|2 = ( Ax) · ( Ax) = x · x = |x|2 . (g) ⇒ (h): | Ax − A y| = | A(x − y)| = |x − y|. (h) ⇒ (f): Über die Formel x · y = − 12 (|x − y|2 − |x|2 − | y|2 ), die man leicht bestätigt, folgt aus (h) sofort (f).  Eigenschaft (h) macht deutlich, daß die Abbildung x  → Ax mit orthogonalem A alle Abstände invariant läßt. Auch alle Winkel, wie überhaupt innere Produkte, bleiben dabei unverändert (nach (f)). Die Abbildung x  → Ax vermittelt also Kongruenzabbildungen geometrischer Figuren. Ein starrer Körper im R3 würde dadurch also einfach gedreht und evtl. noch gespiegelt. In gewissem Sinne gilt auch die Umkehrung. Wir definieren dazu Definition 3.13: Eine Abbildung F : Rn → Rn , die alle Abstände invariant läßt, d.h. |F(x) − F( y)| = |x − y| für alle x, y ∈ Rn ,

(3.98)

heißt eine Isometrie (oder abstandserhaltende Abbildung). Satz 3.27: F : Rn → Rn ist genau dann eine Isometrie, wenn F die Form F(x) = Ax + a

(x ∈ Rn )

hat, mit einem a ∈ Rn und einer orthogonalen Matrix A.

(3.99)

3.5 Spezielle Matrizen

199

Folgerung 3.7: Jede Isometrie, die 0 festläßt, wird durch eine orthogonale Matrix vermittelt und umgekehrt. Beweis: (des Satzes 3.27) Gilt (3.99), so ist F nach Satz 3.26(h) eine Isometrie. Ist umgekehrt F als Isometrie vorausgesetzt, so definieren wir zuerst a := F(0). Die »verschobene« Abbildung f (x) := F(x − a) ist dann auch eine Isometrie, wobei f (0) = 0 gilt. f erfüllt damit | f (x)| = | f (x) − f (0)| = |x − 0| = |x|. f läßt das innere Produkt invariant, da 2x · y = −(|x − y|2 − |x|2 − | y|2 ) gilt, und f die Beträge auf der rechten Seite unverändert läßt. Damit bilden die Vektoren a1 = f (e1 ) , . . . , an = f (en ) ein Orthonormalsystem. Jedes x =

n $

xk · ek ∈ Rn hat folglich ein Bild f (x) von der Form

k=1 n 

f (x) =

ξk a k

mit ξk = f (x) · ak = f (x) · f (ek ) = x · ek = xk ,

k=1

also f (x) =

n 

xk ak . Mit der orthogonalen Matrix A = [a1 , . . . , an ] folgt daraus f (x) = Ax,

k=1

also F(x) = f (x) + a = Ax + a.



Folgerung 3.8: Für alle orthogonalen Matrizen A gilt: | det A| = 1 . Beweis: 1 = det E = det( AT A) = (det AT )(det A) = (det A)2 .

(3.100)



Weitere geometrische Untersuchungen mit orthogonalen Matrizen, z.B. über Spiegelungen und Drehungen, findet der Leser im Abschn. 3.10. Bemerkung: Für unitäre Matrizen gelten Satz 3.26, Satz 3.27 und Folgerung 3.7 (mit Beweisen) T ∗ n n ganz entsprechend. Man hat nur zu ersetzen: R durch √ C, R durch C , A durch A . Ferner definiert man im Cn Folgendes: x · y = x ∗ y, |x| = x ∗ x. Übung 3.29* Zeige: Alle orthogonalen (2,2)-Matrizen sind gegeben durch



 cosα − sin α cos α sin α und C α = . Dα = sin α cos α sin α − cos α

200

3 Matrizen

3.5.4

Symmetrische Matrizen und quadratische Formen

Quadratische Formen: Wir hatten definiert: Eine (n, n)-Matrix S = [sik ]n,n heißt symmetrisch, wenn ihre Elemente reell sind und wenn folgendes gilt: ST = S ,

d.h.

sik = ski

für alle i, k .

Symmetrische Matrizen kommen oft in Verbindung mit quadratischen Formen Q(x) = x T Sx =

n 

xi sik xk ,

x ∈ Rn

(3.101)

i,k=1

vor. Im Falle n = 2 kann man Q(x) ausführlicher so schreiben: Q(x) = s11 x12 + s22 x22 + 2s12 x1 x2 ,

x ∈ R2 .

(3.102)

Hierbei wurde s12 = s21 ausgenutzt. Wegen der Symmetrie (sik = ski ) kann man Q(x) bei beliebigem n ∈ N entsprechend umschreiben in Q(x) =

n 

sii xi2 + 2

i=1



sik xi xk ,

x ∈ Rn .

(3.103)

i 0

für alle x  = 0 , x ∈ Rn

(3.114)

gilt, bzw. positiv semidefinit, wenn B(x, x) ≥ 0

für alle x ∈ Rn

(3.115)

gilt. Die zugehörige Matrix S heißt in diesen Fällen auch positiv definit bzw. positiv semidefinit (wie schon in Abschn. 3.5.1, Definition 3.12 angegeben). Satz 3.32: Jede Bilinearform B(x, y) erfüllt folgende Regeln: Für alle x, y, z ∈ Rn und alle λ, µ ∈ R gilt (a) B(λx + µ y, z) = λB(x, z) + µB( y, z) , (b) B(x, λ y + µz) = λB(x, y) + µB(x, z) . Ferner gilt mit Q(x) = B(x, x): (c) Q(λx) = λ2 Q(x) sowie (d)

B symmetrisch ⇔ B(x, y) = B( y, x)

(e) B schiefsymmetrisch ⇔ B(x, y) = −B( y, x) . Ist B positiv definit, so folgt (f) Q(x) = 0 ⇔ x = 0 »Schwarzsche Ungleichung« (g) B(x, y)2 ≤ Q(x)Q( y)    (h) Q(x + y) ≤ Q(x) + Q( y) »Dreiecksungleichung« Beweis: Die Eigenschaften (a) bis (f) sind√unmittelbar klar. Zum Beweis von (g) und (h) setzen wir zur Abkürzung B(x, y) = x  y und Q(x) = x. Das »Produkt« x  y hat nun die wesentlichen Eigenschaften eines inneren Produktes, insbesondere die Eigenschaften (I) bis (IV) in Satz 2.1, Abschn. 2.1.2. Damit folgen auch die Eigenschaften (V) bis (IX) des gleichen Satzes entsprechend (mit x statt |x|). Sie werden wie im Beweis des Satzes 2.1 hergeleitet. Dabei entspricht (VI) dem obigen (g) und (VII) der Eigenschaft (h).  Bemerkung: Aus dem Satz ergibt sich, daß durch x  y := B(x, y) mit positiv definiter Bilinearform der Vektorraum Rn zu einem euklidischen Raum mit anderem inneren Produkt wird (vgl. Abschn. 2.4.8). Das »Produkt« x  y nimmt die Stelle von x · y ein. Diese Möglichkeit, mit verschiedenen inneren Produkten im Rn zu arbeiten, erleichtert gelegentlich das Lösen algebraischer Probleme.

206

3 Matrizen

3.5.7

Kriterien für positiv definite Matrizen

Wie kann man aber erkennen, ob eine Matrix positiv definit ist (und damit auch die zugehörige Bilinearform)? Im Folgenden geben wir Kriterien dafür an. Zunächst ein notwendiges Kriterium. Satz 3.33: Jede positiv definite Matrix S ist regulär. Beweis: Wäre S nicht regulär, so gäbe es ein x = 0 mit Sx = 0, also auch x T Sx = 0, d.h. S wäre nicht positiv definit.  Ferner gilt der folgende einfache Satz, den der Leser leicht selbst beweist. Satz 3.34: Eine symmetrische (n, n)-Matrix S ist genau dann positiv definit, wenn W T SW positiv definit ist für jede reguläre reelle (n, n)-Matrix W . Kurz: S positiv definit ⇔ W T SW positiv definit

(W regulär) .

Als Krönung gewinnen wir nun aus den vorangegangenen Überlegungen drei hinreichende und notwendige Kriterien für positive Definitheit. Wir benutzen in einem Kriterium wieder die Hauptminoren δr (S), s. Definition 3.14, Abschn. 3.5.5. Satz 3.35: Eine symmetrische (n, n)-Matrix S ist genau dann positiv definit, wenn eine der folgenden gleichwertigen Bedingungen erfüllt ist: (a) Alle Hauptminoren δr (S), r = 1, . . . , n, sind positiv (Kriterium von Hadamard). (b) Alle Eigenwerte von S sind positiv. (c) Es gibt eine reelle reguläre (n, n)-Matrix W √ mit S = W T W . (Man bezeichnet W auch als eine »Wurzel aus S«, also W =: S. Beweis: Eine Diagonalmatrix ist genau dann positiv definit, wenn alle ihre Diagonalglieder positiv sind (wie man sich leicht überlegt). Auf diesen einfachen Fall wird alles zurückgeführt. Zu (a): Es sei S positiv definit. Damit ist auch jede Untermatrix Sr , die durch Streichen der letzten n − r Zeilen und Spalten aus S entsteht, positiv definit, da für alle x ∈ Rr mit x  = 0 gilt: x T Sr x =

 T   x x S > 0. 0 0

3.5 Spezielle Matrizen

207

Daraus folgt δr := δr (S) = det Sr  = 0 für alle Hauptminoren. Nach dem Satz von Jacobi (Satz 3.30, Abschn. 3.5.5) gilt nun S = RT D R mit   δ2 δ3 δn (3.116) D = diag δ1 , , , . . . , δ1 δ2 δn−1 und regulärem R. Damit ist D positiv definit (nach Satz 3.34), folglich gilt δ1 > 0, δ2 /δ1 > 0, . . . , δn /δn−1 > 0, also δr > 0 für alle r = 1, . . . , n, d.h. alle Hauptminoren sind positiv. Sind umgekehrt alle Hauptminoren δr = δr (S) positiv, so ist D in (3.116) positiv definit und folglich S = (R−1 )T D R−1 auch. Zu (b): Der Normalformensatz (Satz 3.31) in Abschn. 3.5.5 liefert C T SC = M

mit

M = diag(λ1 , . . . , λn )

(3.117)

wobei C −1 = C T gilt (da C orthogonal ist) und λ1 , . . . , λn die Eigenwerte von S sind. Über Satz 3.34 folgt daraus: S positiv definit ⇔ M positiv definit ⇔ alle Eigenwerte λi sind positiv. Zu (c): Gilt S = W T W mit regulärem W , so folgt x T Sx = x T W T W x = (W x)T W x = (W x) · (W x) > 0, falls x  = 0, d.h. S ist positiv definit. Ist umgekehrt √ S als positiv √ definit vorausgesetzt, so sind alle Eigenwerte λi > 0 (nach (b)). Mit N = diag( λ1 , . . . , λn ) erhält man daher M = N N, und aus (3.117) wegen N T = N: S = (C T )T M C T = (C T )T N T N C T = (N C T )T (N C T ) = W T W mit W = N C T , was zu beweisen war.



Für kleine Zeilenzahlen n = 2 und n = 3 formulieren wir das Hadamardsche Kriterium (Satz 3.35(a)) noch einmal gesondert: Folgerung 3.10: Die folgenden Matrizen sind reell und symmetrisch vorausgesetzt. Damit gilt:    s11 > 0 s11 s12 (a) S = »positiv definit« ⇔ 2 > 0. s21 s22 det S = s11 s22 − s12 ⎧ ⎡ ⎤ ⎪ und s11 s12 s13 ⎨s11 > 0 2 > 0 und (b) S = ⎣s21 s22 s23 ⎦ »positiv definit« ⇔ s11 s22 − s12 ⎪ ⎩ s31 s32 s33 det S > 0 . Beispiele Beispiel 3.12:    2>0 2 −3 Für S = gilt −3 5 det S = 2 · 5 − 9 > 0

⇒ positiv definit.

und

208

3 Matrizen

Beispiel 3.13:   −6 4 Für S = gilt −6 < 0 ⇒ nicht positiv definit. 4 2 Beispiel 3.14: ⎡ 3 1 5 Für S = ⎣ 1 −4 −1

⎧ ⎤ ⎪ −4 ⎨3 > 0 1 ⎦ gilt 3 · 5 − 12 > 0 ⎪ ⎩ 7 det S = 21 > 0

⇒ positiv definit.

Zum praktischen Nachweis der positiven Definitheit einer symmetrischen Matrix S ist für kleine Zeilenzahlen das Hadamardsche Kriterium (Satz 3.35(a): »Alle Hauptminoren sind positiv«) am brauchbarsten. Dies zeigen Folgerung 3.10 und die Beispiele. Für größere n (etwa n ≥ 7) kann es damit schwieriger werden, da das Berechnen großer Determinanten durch Rundungsfehler numerisch schwieriger wird. Hier rückt dann das zweite Kriterium (Satz 3.35(b): »Alle Eigenwerte > 0«) ins Bild, da die Numerische Mathematik inzwischen gute Methoden zur Berechnung der Eigenwerte einer Matrix bereitstellt (s. z.B. [125], [150]). In Abschn. 3.6.5 wird darauf übersichtsartig noch einmal eingegangen. Anwendung auf Extremalprobleme:23 Die Berechnung der Maxima und Minima einer reellwertigen Funktion y = f (x1 , x2 , . . . xn ) von mehreren reellen Variablen xi ist ein wichtiges Problem in Theorie und Praxis. Hier liefert die Analysis folgenden Satz (s. Burg/Haf/Wille (Analysis) [27], Abschn. 6.4.3, Satz 6.18): »Ist f in seinem Definitionsbereich D ⊂ Rn zweimal stetig differenzierbar, so folgt: Ein ◦ Punkt x 0 ∈ D (=Inneres von D) mit f (x 0 ) = 0 ist eine echte Minimalstelle, wenn

f (x 0 ) positiv definit ist,

echte Maximalstelle, wenn − f (x 0 ) positiv definit ist.« Dabei ist 



∂2 f (x 0 ) f (x 0 ) = ∂ xi ∂ xk

n,n

eine symmetrische Matrix. Das Hadamardsche Kriterium (Satz 3.35(a)) leistet hier ausgezeichnete Dienste! Denn man hat zur Gewinnung der Extremwerte f (x) = 0 zu lösen und in den Lösungen x 0 dieser Gleichung zu untersuchen, ob f (x 0 ) oder − f (x 0 ) positiv definit ist oder keins von beiden zutrifft. Diese drei Fälle zeigen an, ob in x 0 ein echtes Minimum oder ein echtes Maximum vorliegt oder ob weitere Untersuchungen zur Klärung erforderlich sind.

23 Hier sind Grundkenntnisse der Differentialrechnung mehrerer Veränderlicher erforderlich.

3.5 Spezielle Matrizen

209

Übung 3.31* Welche der folgenden Matrizen ist positiv definit, welche negativ definit, welche nichts dergleichen: ⎡ 2 1 ⎢ 1 2 1 ⎢ ⎡ ⎤ ⎢



 ⎢ 1 2 1 8 2 −1 ⎢ 7 5 −8 6 ⎢ ⎥ .. .. , S2 = , S3 = ⎣−2 S1 = 5 −3⎦ , S4 = ⎢ ⎢ . . 1 5 4 6 −4 ⎢ −1 −3 7 ⎢ . ⎢ .. 2 1 ⎣ 1 2



0 ⎥⎥⎥

0

3.5.8

⎥ ⎥ ⎥. ⎥ ⎥ ⎥ ⎥ ⎦

Direkte Summe und direktes Produkt von Matrizen

Zwei Rechenoperationen, die seltener gebraucht werden, seien hier kurz angegeben. Sie führen »übliche« Matrizen in Matrizen spezieller Gestalt über. K sei im Folgenden ein beliebiger algebraischer Körper, z.B. K = R. Definition 3.15: (Direkte Summe von Matrizen) Es seien A = [aik ]n,n und B = [bik ]m,m zwei quadratische Matrizen mit Elementen aus K. Dann ist ihre direkte Summe A ⊕ B definiert durch   A 0 A ⊕ B := . (3.118) 0 B A und B sind also Untermatrizen der rechts stehenden Blockmatrix. Man erhält unmittelbar Folgerung 3.11: Regeln für ⊕: Für beliebige quadratische Matrizen A, B, C über K 24 und beliebige λ ∈ K gilt ( A ⊕ B) ⊕ C = A ⊕ (B ⊕ C) =: A ⊕ B ⊕ C λ( A ⊕ B) = (λ A) ⊕ (λB) ( A ⊕ B)T = AT ⊕ B T ( A ⊕ B)

−1

−1

=A

⊕B

(3.119) (3.120) (3.121)

−1

(falls A, B regulär).

(3.122)

Bei längeren Summen werden die Klammern üblicherweise weggelassen, d.h. es ist: A ⊕ B ⊕ C = A ⊕ (B ⊕ C), A ⊕ B ⊕ C ⊕ D = A ⊕ (B ⊕ C ⊕ D) usw. Man definiert Rn ⊕ Rm := Rn+m , wobei für x ∈ Rn und y ∈ Rm folgendes erklärt ist: 24 »Matrix A über K« bedeutet: Matrix A mit Elementen aus K.

210

3 Matrizen

  x x⊕y= (vgl. Abschn. 2.4.4). Für A = [aik ]n,n und B = [bik ]m,m folgt damit die Regel y ( A ⊕ B)(x ⊕ y) = ( Ax) ⊕ (B y) .

(3.123)

Insbesondere in Abschn. 3.7 werden wir diese Summenbildung verwenden. Definition 3.16: (Direktes Produkt von Matrizen (Kronecker-Produkt)) Das direkte Produkt A ⊗ B zweier Matrizen A = [aik ]m,n B = [bik ] p,q ist erklärt durch ⎡ ⎤ a11 B · · · a1n B ⎢ .. ⎥ . A ⊗ B := ⎣ ... (3.124) . ⎦ am1 B

· · · amn B

Hierbei sind die aik B Untermatrizen der rechtsstehenden Blockmatrix. Für (2,2)-Matrizen ergibt sich z.B.      a11 b11 a11 b12 a12 b11 a12 b12  a a12   A = 11  a11 b21 a11 b22 a12 b21 a12 b22  a21 a22 .    A⊗ B = a21 b11 a21 b12 a22 b11 a22 b12  b11 b12  B=  a21 b21 a21 b22 a22 b21 a22 b22  b21 b22

Folgerung 3.12: Regeln für ⊗: Sind A, B, C, D beliebige Matrizen über K, für die die folgenden Matrix-Summen und Matrix-Produkte gebildet werden können, und ist λ beliebig aus K, so folgt (λ A) ⊗ B = A ⊗ (λB) = λ( A ⊗ B) := λ A ⊗ B , ( A + B) ⊗ C = A ⊗ C + B ⊗ C , A ⊗ (B + C) = A ⊗ B + A ⊗ C , ( A ⊗ B)(C ⊗ D) = AC ⊗ B D , ( A ⊗ B)T = AT ⊗ B T , d( A ⊗ B) dA dB = ⊗ B+ A⊗ . dt dt dt

(3.125) (3.126) (3.127) (3.128) (3.129) (3.130)

Die letzte Regel setzt voraus, daß alle Elemente aik , bik von A bzw. B differenzierbar von t ∈ R abhängen. Man definiert: dA/ dt := ( daik / dt). Die hingeschriebenen Regeln weist der Leser leicht selber nach. Bemerkung: Das direkte Produkt von Matrizen spielt in der Tensorrechnung wie auch in der Darstellungstheorie von Gruppen eine Rolle.

3.6 Eigenwerte und Eigenvektoren

3.6

211

Eigenwerte und Eigenvektoren

Die Untersuchung von Schwingungen mechanischer und elektrodynamischer Systeme ist mit Eigenwertproblemen eng verknüpft. Und zwar berechnet man den zeitlichen Ablauf solcher Schwingungen aus Differentialgleichungen, bei denen sich als Kern oft ein algebraisches Eigenwertproblem herausschält, d.h. es muß eine Gleichung der Form Ax = λx

mit einer gegebenen Matrix

A ∈ Mat(n; C)

(3.131)

gelöst werden. Lösen λ ∈ C und x = 0 (x ∈ Cn ) die Gleichung, so heißt λ ein Eigenwert von A und x ein zugehöriger Eigenvektor. Je nachdem, wo λ in der komplexen Ebene liegt, ergibt sich, ob die Schwingung gedämpft ist (stabiler Fall), oder ob sie sich aufschaukelt (instabiler Fall). Handelt es sich bei den schwingenden Systemen um Brücken, Türme, Flugzeugflügel, rotierende Achsen, Balken, Fahrzeugteile usw., so kann das Aufschaukeln zu schlimmen Katastrophen führen. Die gilt es, mit allen Mitteln zu verhindern. Die Vermeidung von instabilen Schwingungen ist eine der wichtigsten Anwendungen der Eigenwerttheorie. Historisch gesehen hat die Bekämpfung des »Flugzeugflatterns«, also der Aufschaukelungskatastrophe schwingender Tragflächen und Leitwerke, die Entwicklung numerischer Berechnungsmethoden für Eigenwerte und -vektoren stark gefördert. Im Abschn. 3.6.2 wird exemplarisch und übersichtsartig der Zusammenhang zwischen Schwingungen und Eigenwerten erläutert. Über das Schwingungsproblem hinaus sind Eigenwerte allgemein bei der Lösung linearer Differentialgleichungssysteme ein unentbehrliches Hilfsmittel. Ja, die Struktur von Matrizen wird durch die Kenntnis der Eigenwerte und -vektoren viel klarer (Verwandeln in gewisse Normalformen usw.). Das hat Auswirkungen auf alle Anwendungen der Matrizen, wie bei Gleichungssystemen, Kegelschnitten, Flächen zweiter Ordnung und anderen »krummen«Flächen, Tensoren, Bewegungen, Integralgleichungen u.a. 3.6.1

Definition von Eigenwerten und Eigenvektoren

Definition 3.17: Es sei A eine komplexe (n, n)-Matrix.25 Eine Zahl λ ∈ C heißt ein Eigenwert von A und x ∈ Cn ein zugehöriger Eigenvektor, wenn Ax = λx

und

x = 0

(3.132)

erfüllt ist.26 25 Auch rein reelle Matrizen fallen hierunter. Alles für komplexe Matrizen Hergeleitete in diesem Abschnitt gilt also insbesondere für reelle Matrizen, die ja in der Ingenieurpraxis vorrangig auftreten. 26 Wie bisher bezeichnet C die Menge der komplexen Zahlen und Cn den komplexen Vektorraum aller ndimensionalen Spaltenvektoren mit komplexen Koordinaten.

212

3 Matrizen

Die Gleichung Ax = λx heißt Eigengleichung zu A. Sie läßt sich umschreiben in Ax − λx = 0, und mit x = Ex in ( A − λE)x = 0

(x  = 0) .

(3.133)

Das Eigenwertproblem für A besteht darin, alle Eigenwerte und Eigenvektoren von A zu finden. Die Menge aller Eigenwerte von A heißt das Spektrum von A und wird mit σ ( A) bezeichnet. Zudem heißt ρ( A) := max |λ| ∈ R λ∈σ ( A)

Spektralradius der Matrix A. Geometrische Deutung: Ist x  = 0 ein Vektor aus Cn , so sagt man: Alle Vektoren der Form αx (α ∈ C) bilden eine Gerade durch 0 in Cn . x 0  = 0 ist genau dann ein Eigenvektor von A (zum Eigenwert λ0 ), wenn die Gerade G = {αx 0 | α ∈ C} durch f (x) := Ax in sich abgebildet wird. Denn Ax 0 = λ0 x 0 bedeutet A(αx 0 ) = λ0 αx 0 ∈ G für alle α ∈ C, d.h. jeder Punkt von G geht durch Linksmultiplikation mit A in einen Punkt von G über. Man nennt G auch eine Fixgerade von A. So betrachtet besteht das Eigenwertproblem für A darin, alle Fixgeraden von A zu finden. Zur Lösung der Eigengleichung ( A − λE)x = 0

(3.134)

macht man sich folgendes klar: Für fest gewähltes λ ist (3.134) ein lineares Gleichungssystem mit der Unbekannten x ∈ Cn . Ist A − λE regulär, so gibt es nur die Lösung x = 0. Wir suchen aber Lösungen x  = 0. Diese gibt es dann und nur dann, wenn A − λE singulär ist, d.h. wenn folgendes gilt: det( A − λE) = 0 .

(3.135)

Diese Gleichung heißt charakteristische Gleichung (oder Säkulargleichung) zu A. Die Zahl λ ∈ C ist also genau dann ein Eigenwert von A, wenn λ die charakteristische Gleichung (3.135) erfüllt. Mit A = [aik ]n,n lautet die charakteristische Gleichung ausführlich   (a11 − λ) a12 a13 ··· a1n    a21 (a22 − λ) a23 ··· a2n    a31 a32 (a33 − λ) · · · a3n  = 0 .    .. .. .. ..   . . . .    an1 an2 an3 · · · (ann − λ)

(3.136)

Man erkennt hieraus, daß die linke Seite der Gleichung ein Polynom in λ ist, da in der Summendarstellung der Determinante jedes Glied ein Polynom in λ ist. Eines dieser Glieder ist das

3.6 Eigenwerte und Eigenvektoren

213

Produkt der Diagonalglieder n n

(a11 − λ)(a22 − λ) · . . . · (ann − λ) = (−1) λ + (−1)

n−1

n 

aii λn−1 + . . . .

(3.137)

i=1

Es stellt ein Polynom n-ten Grades dar, dessen höchster Koeffizient (−1)n ist. Alle anderen Glieder in der Summendarstellung der Determinante enthalten nur Potenzen λm mit kleineren Exponenten m < n, da sie ja weniger als n Faktoren (aii − λ) enthalten. Also beschreibt die Determinante in (3.135) ein Polynom n-ten Grades mit höchstem Koeffizient (−1)n . Man vereinbart: Definition 3.18: Ist A eine komplexe (n, n)-Matrix, so heißt χ A (λ) := det( A − λE) ,

λ ∈ C,

das charakteristische Polynom von A. Es hat den Grad n. Folgerung 3.13: Die Eigenwerte einer komplexen (n, n)-Matrix A sind die Nullstellen des charakteristischen Polynoms χ A (λ) von A. Zur Bestimmung der Eigenwerte von A hat man also die Nullstellen des charakteristischen Polynoms zu berechnen. Für n = 2 bedeutet dies das Lösen einer quadratischen Gleichung χ A (λ) = 0. Für größere n kann man das Newtonsche Verfahren verwenden (s. Burg/Haf/Wille (Analysis) [27], Abschn. 3.3.5) oder andere Methoden, die die numerische Mathematik bereitstellt. Zu jedem berechneten Eigenwert λi gewinnt man die zugehörigen Eigenvektoren x i dann aus dem singulären linearen Gleichungssystem ( A − λi E)x i = 0 .27

(3.138)

Beispiel 3.15: Es sollen die Eigenwerte und zugehörige Eigenvektoren der folgenden Matrix berechnet werden:   5 8 A= . 1 3 Das charakteristische Polynom von A lautet   5−λ 8 = (5 − λ)(3 − λ) − 8 = λ2 − 8λ + 7 . χ A (λ) = 1 3−λ 27 Es sei erwähnt, daß für größere n (n ≥ 6) effektivere numerische Verfahren erdacht wurden. In Abschn. 3.6.5 werden einige angegeben.

214

3 Matrizen

Die Eigenwerte von A sind also die Lösungen der Gleichung λ2 − 8λ + 7 = 0, also λ1 = 7

und λ2 = 1 .

Zugehörige Eigenvektoren x 1 = [x11 , x21 ]T , x 2 = [x12 , x22 ]T , berechnet man nach (3.138) aus       (5 − 1) 8 x12 (5 − 7) 8 x11 = 0, = 0. 1 (3 − 1) x22 1 (3 − 7) x21 Multipliziert man die Matrizen explizit aus, so erhält man die beiden Gleichungssysteme  −2x11 +8x21 = 0  4x12 +8x22 = 0 (3.139)  x11 −4x21 = 0  x12 +2x22 = 0 . Da die Gleichungssysteme singulär sind (die oberen Zeilen sind Vielfache der unteren Zeilen), benötigt man zur Berechnung der Eigenvektoren nur die oberen beiden Gleichungen in (3.139). Wir setzen darin (willkürlich) x21 = 1 und x22 = 1, woraus x11 = 4 bzw. x12 = −2 folgt. Damit gewinnt man die folgenden Eigenvektoren:     4 −2 x1 = zu λ1 = 7 , x 2 = zu λ2 = 1 . 1 1 Alle anderen Lösungen von (3.139) sind Vielfache dieser Eigenvektoren, d.h. alle Eigenvektoren von λ1 (bzw. λ2 ) haben die Form αx 1 (bzw. αx 2 ) mit α = 0, α ∈ C. Übung 3.32* Berechne die Eigenwerte und zugehörigen Eigenvektoren zu folgenden Matrizen ⎡ ⎤



 6 −3 4 5 −8 5 −6 ⎢ ⎥ A= , B= , C = ⎣0 7 −1⎦ . −8 4 1 2 0 10 −3

3.6.2

Anwendung: Schwingungen

An einem elementaren Beispiel aus der Mechanik wird gezeigt, wie Schwingungsprobleme mit Eigenwertaufgaben zusammenhängen. Hierbei werden Grundtatsachen über lineare Differentialgleichungen verwendet (s. Burg/Haf/Wille (Band III) [24], Abschn. 2). Aber auch mit (Schul-) Wissen über Differentialrechnung kann man das Folgende verstehen. Beispiel 3.16: (Zwei-Massen-Schwinger) Man betrachte das in Figur 3.13 skizzierte elastische System aus zwei Wagen der Massen m 1 , m 2 , drei Federn mit Federkonstanten k1 , k2 , k3 und den festen Wänden rechts und links. Die Wagen mögen reibungsfrei laufen. x1 bedeutet die Auslenkung des ersten Wagens aus der Ruhelage, x2 die des zweiten Wagens.

3.6 Eigenwerte und Eigenvektoren

215

Fig. 3.13: Zwei-Massen-Schwinger

Die Bewegungsgleichungen für die beiden Wagen lauten m 1 x¨1 = −k1 x1 + k2 (x2 − x1 ) m 2 x¨2 = k2 (x1 − x2 ) − k3 x2 , wobei die Punkte über den x j die Ableitungen nach der Zeit t markieren. Wir setzen     x −(k1 + k2 )/m 1 k2 /m 1 x= 1 , A= x2 k2 /m 2 −(k3 + k2 )/m 2

(3.140)

(3.141)

und fassen die Bewegungsgleichungen zu x¨ = Ax

(3.142)

zusammen. Mit dem Lösungsansatz x = b ei ωt ,

b ∈ R2 , ω ∈ R ,

(3.143)

gehen wir in die Differentialgleichung (3.142) hinein und erhalten mit x¨ = −ω2 b ei ωt daraus −ω2 b ei ωt = Ab ei ωt , also nach Herauskürzen von ei ωt : Ab = λb ,

mit

λ = −ω2 .

(3.144)

Damit ist ein Eigenwertproblem entstanden. Das charakteristische Polynom χ A (λ) = det( A − λE) läßt sich sofort explizit ausrechnen. Es hat zwei verschiedene negative Nullstellen λ1 , λ2 , wie man elementar ermittelt. Zugehörige Eigenvektoren b1 , b2 sind schnell aus ( A−λk E)bk = 0 gewonnen. Damit sind alle Lösungen von x¨ = Ax von der Gestalt x = c1 b1 ei ω1 t +c2 b2 ei ω2 t .

(3.145)

Die reellen Lösungen ergeben sich als Linearkombinationen aus Re x und Im x (vgl. Burg/Haf/Wille (Band III) [24], Abschn. 3.2.7, Bem. vor Beisp. 3.12). Bemerkung: (a) Es ist nicht schwierig, nach diesem Muster Mehr-Massen-Schwinger zu behandeln, bei denen die Massen nicht nur eindimensional. sondern auch eben oder räumlich zueinander angeordnet sind.

216

3 Matrizen

(b) Berücksichtigt man im obigen Beispiel die Reibung, so würde man eine Differentialgleichung der Form x¨ = B x˙ + Ax

(3.146)

mit (2, 2)-Matrizen A, B zu lösen haben. Mit y := x˙ führt dies auf y˙ = B y + Ax ,

x˙ = E y ,

wodurch ein Differentialgleichungssystem     B A y z˙ = C z mit C = , z= ∈ C4 E 0 x

(3.147)

entsteht. Dies ergibt mit dem Ansatz z = u eλt wieder ein Eigenwertproblem: C u = λu. (c) Kommen von außen aufgeprägte zeitabhängige Kräfte K (t) hinzu, so hat man z˙ − C z = K

(3.148)

zu lösen. Es können dann, wie bei einer einzigen schwingenden Masse (s. Burg/Haf/Wille (Band III) [24], Abschn. 3.1.4 (I)), gedämpfte oder angefachte Schwingungen entstehen. Letztere will man natürlich vermeiden, da sie zur Zerstörung des Systems führen. Man spricht in diesem Falle von einem instabilen schwingenden System. Ins Große übersetzt ist dies der Ansatz für Flatterrechnungen von Flugzeugen. Die äußeren Kräfte K hängen dann allerdings auch noch von z ab, also von der Bewegung selbst. Es handelt sich dabei um Luftkräfte. Sie werden durch die Schwingung beeinflußt, da die Schwingung ja den Verlauf der Luftströmungen dauernd ändert. Es findet sozusagen eine Rückkoppelung zwischen Schwingungen und Luftkräften statt. Entsteht dabei Anfachung, so führt dies zur Zerstörung des Flugzeuges und damit zur Katastrophe. Dies gilt es natürlich zu verhindern! — Hier ist ein wichtiges Arbeitsfeld für Ingenieure! (d) Umgekehrt sind in der Nachrichtentechnik Resonanzeffekte gelegentlich erwünscht. (e) Weitere Beispiele zu Schwingungen und zu ihren Zusammenhängen mit Eigenwerten findet der Leser in Burg/Haf/Wille (Band III) [24], Abschn. 3.2.7. Dort werden gekoppelte Pendel, elektrische Schwingungen in Schaltkreisen u.a. behandelt. (f) Das Biege- und Knickverhalten von Stäben und Balken führt ebenfalls auf Eigenwertprobleme, s. z.B. [17], [57], [159], [158]. (g) Allgemein treten Eigenwertaufgaben häufig in Verbindung mit Differentialgleichungen auf, sei es bei der Lösung linearer Systeme gewöhnlicher Differentialgleichungen mit konstanten Koeffizienten, sei es bei Randwertaufgaben gewöhnlicher oder partieller Differentialgleichungen (s. Burg/Haf/Wille (Band III) [24], Abschn. 3.2, 5.1, 5.2).

3.6 Eigenwerte und Eigenvektoren

217

Übung 3.33* Berechne die Eigenfrequenzen ω1 , ω2 in Beispiel 3.16, wobei folgende Zahlenwerte gegeben sind: m 1 = 5 kg , m 2 = 3kg , k1 = 3 · 105

N N N , k2 = 4 · 105 , k3 = 2 · 105 . m m m

Übung 3.34* Erweitere den Zwei-Massen-Schwinger in Beispiel 3.16 entsprechend zum n-Massenschwinger (n ∈ N, n > 2). Nimm dabei an, daß alle Massen gleich sind: m i = m für alle i, und alle Federkonstanten gleich sind: ki = k für alle i. Stelle das zugehörige Eigenwertproblem Ax = λx auf. Welche Form hat die Matrix A?

3.6.3

Eigenschaften des charakteristischen Polynoms

Es sei A = [aik ]n,n eine beliebige reelle oder komplexe (n, n)-Matrix, kurz: A = Mat(n; C).28 Hauptunterdeterminanten Man streiche k Zeilen und die entsprechenden k Spalten (also mit gleichen Indizes) aus A heraus. Auf diese Weise entsteht eine Hauptuntermatrix mit m = n − k Zeilen und Spalten. Die Determinante dieser Hauptuntermatrix heißt eine m-reihige Hauptunterdeterminante von A (oder m-reihiger Hauptminor). Hauptunterdeterminanten der Ordnung 1 sind also die Diagonalglieder aii , während det A die (einzige) Hauptunterdeterminante der Ordnung n ist. Spur Ferner bezeichnet man die Summe der Diagonalelemente von A als Spur von A, abgekürzt: Spur A :=

n 

aii .

(3.149)

i=1

Damit können wir den folgenden Satz formulieren, der uns die Koeffizienten des charakteristischen Polynoms χ A (λ) = det( A − λE) explizit als Summen von Determinanten liefert. 28 Zur Erinnerung: Mit Mat(n; C) bezeichnen wir die Menge aller (n, n)-Matrizen, deren Elemente komplexe Zahlen sind. Die reellen (n, n)-Matrizen sind in dieser Menge enthalten.

218

3 Matrizen

Satz 3.36: In der Darstellung des charakteristischen Polynoms χ A (λ) = c0 + c1 (−λ) + c2 (−λ)2 + . . . + cn−1 (−λ)n−1 + cn (−λ)n

(3.150)

von A = [aik ]n,n ist der Koeffizient cr (mit 0 ≤ r ≤ n − 1) gleich der Summe aller (n − r )-reihigen Hauptunterdeterminanten. Insbesondere gilt c0 = det A ,

cn−1 = Spur A ,

cn = 1 .

(3.151)

Beweis: Es seien a1 , . . . , an die Spaltenvektoren von A und e1 , . . . , en die n-dimensionalen Koordinateneinheitsvektoren. Damit ist χ A (λ) = det( A − λE) = det(a1 − λe1 , . . . , an − λen ) . Die rechte Determinante läßt sich als Summe von Determinanten schreiben, die in jeder Spalte entweder nur ai oder −λei aufweisen (wie z.B. det(a1 , −λe2 , −λe3 , a4 , −λe5 ) = (−λ)3 det(a1 , e2 , e3 , a4 , e5 )

(3.152)

im Falle n = 5). Alle Determinanten der genannten Summe, die genau r -mal die Variable λ aufweisen (r < n), lassen sich durch »Herausziehen« von (−λ)r in die Form (−λ)r D j bringen, wobei D j die Determinante einer (n, n)-Matrix ist, die nur Spalten der Form ai oder ei enthält (vgl. (3.152)). Streicht man die Spalten mit den ei heraus und die entsprechenden Zeilen, so ändert sich der Wert D j nicht. D j ist also eine (n − r )-reihige Hauptunterdeterminante. Summation aller (−λ)r D j (r fest) liefert das Polynomglied mit der Potenz (−λ)r , also   (−λ)r D j = (−λ)r cr , und damit D j = cr , wie im Satz behauptet. j

j

Für r = 0 bzw. r = n − 1 erhalten wir: c0 = det A, cn−1 = Spur A. Schon in Abschn. 3.6.1 wurde cn = 1 bewiesen.  Speziell für n = 2 und n = 3 erhalten wir Folgerung 3.14: Für zweireihige Matrizen A = [aik ]2,2 lautet das charakteristische Polynom   a − λ a12  χ A (λ) =  11 = λ2 − (a11 + a22 )λ + det A , (3.153) a21 a22 − λ

3.6 Eigenwerte und Eigenvektoren

219

und für dreireihige Matrizen A = [aik ]3,3 :   a11 − λ a12 a13   a22 − λ a23  = −λ3 + (a11 + a22 + a33 )λ2 χ A (λ) =  a21  a31 a32 a33 − λ (3.154)       a11 a12  a11 a13  a22 a23  + +  λ + det A . −  a21 a22  a31 a33  a32 a33  Aus Satz 3.36 kann man weitere nützliche Folgerungen ziehen. Dazu definieren wir zunächst die algebraische Vielfachheit eines Eigenwertes. Definition 3.19: Ist der Eigenwert λi eine k-fache Nullstelle29 des charakteristischen Polynoms χ A von A = [a jk ]n,n , so nennt man λi einen k-fachen Eigenwert von A. Die Zahl k heißt auch die algebraische Vielfachheit κi von λi . Nach dem Fundamentalsatz der Algebra (Burg/Haf/Wille (Analysis) [27], Abschn. 2.5.5) gibt es höchstens n Nullstellen von χ A und damit höchstens n Eigenwerte λ1 , . . . , λr von A = [aik ]n,n . Mehr noch: Mit den zugehörigen algebraischen Vielfachheiten κi der λi (i = 1, . . . , r ) kann χ A (λ) in folgender Form geschrieben werden: χ A (λ) = (−1)n (λ − λ1 )κ1 (λ − λ2 )κ2 · . . . · (λ − λr )κr , mit κ1 + κ2 + . . . + κr = n .

(3.155)

Multipliziert man jede Klammer mit (−1), so ergibt sich ausführlicher: χ A (λ) = (λ1 − λ) · . . . · (λ1 − λ) · . . . · (λr − λ) · . . . · (λr − λ) .       κ1 Faktoren κr Faktoren

(3.156)

Multipliziert man hier alle Klammern aus und ordnet nach Potenzen von (−λ), d.h. verwandelt man χ A (λ) in χ A (λ) = c0 + c1 (−λ) + . . . + cn−1 (−λ)n−1 + (−λ)n , so erhält man cn−1 = κ1 λ1 + . . . + κr λr und c0 = λκ11 · . . . · λrκr , also mit (3.151) in Satz 3.36: Spur A = κ1 λ1 + κ2 λ2 + . . . + κr λr , det A =

λκ11 λκ22

· . . . · λrκr

(3.157)

.

(3.158)

Schreibt man jeden Eigenwert so oft hin, wie es seiner algebraischen Vielfachheit entspricht, so kann man das Ergebnis so formulieren: (k−1)

(λ ) = χ (λ ) = . . . = χ 29 d.h. 0 = χ A (λi ) = χ A i A A i

(k)

(λi ) und χ A (λi )  = 0.

220

3 Matrizen

Die Spur der Matrix A ∈ Mat(n; C) ist die Summe ihre Eigenwerte, und die Determinante das Produkt ihrer Eigenwerte. Invarianz bei Transformationen Definition 3.20: Es seien A und C komplexe (n, n)-Matrizen, wobei C regulär ist. Aus ihnen kann man die Matrix B = C −1 AC

(3.159)

bilden. Man sagt in diesem Falle, daß B aus A durch Transformation mit C hervorgegangen ist. Bemerkung: Gilt y = Ax und substituiert man darin x = C u, y = Cw, so erhält man Cw = ACu, also w = C −1 ACu, d.h. w = Bu. Die lineare Abbildung y = Ax geht durch die Substitution mit C also in die Abbildung w = Bu über, wobei B aus A durch Transformation mit C hervorgeht. Wegen dieses Zusammenhanges sind Transformationen von Matrizen von Bedeutung. Satz 3.37: Das charakteristische Polynom einer Matrix A ∈ Mat(n; C) bleibt bei Transformation unverändert, d.h. es gilt für jede reguläre Matrix C ∈ Mat(n; C): χ A = χC −1 AC . Beweis: Es gilt χC −1 AC (λ) = det(C −1 AC − λE) = det(C −1 ( A − λE)C) = det C −1 · det( A − λE) · det C = det( A − λE) = χ A (λ) ,

wegen det C −1 det C = det(C −1 C) = det E = 1. Folgerung 3.15: Bei Transformation einer Matrix A ∈ Mat(n; C) bleiben folgende Größen unverändert: (a) alle Eigenwerte samt ihren algebraischen Vielfachheiten, (b) die Spur der Matrix: Spur A = Spur C −1 AC, (c) die Determinante der Matrix: det A = det C −1 AC.



3.6 Eigenwerte und Eigenvektoren

Beweis: (a) ist nach Satz 3.37 klar. (b), (c) folgen mit (3.157), (3.158).

221



Weitere Eigenschaften des charakteristischen Polynoms30 Satz 3.38: Die Transponierte AT von A ∈ Mat(n; C) hat das gleiche charakteristische Polynom wie A: χ AT = χ A . Beweis: det( AT − λE) = det(( A − λE)T ) = det( A − λE).



Satz 3.39: (Eigenwerte von Dreiecksmatrizen) Bei Dreiecksmatrizen sind die Diagonalelemente die Eigenwerte. Der einfache Beweis bleibt dem Leser überlassen. Beispiel 3.17: Die Matrix ⎡ 3 ⎢0 A=⎢ ⎣0 0

8 5 0 0

1 0 4 0

⎤ 9 3⎥ ⎥ 7⎦ 4

hat das charakteristische Polynom χ A (λ) = det( A − λE) = (3 − λ)(5 − λ)(4 − λ)2 . Sie hat also die Eigenwerte λ1 = 3, λ2 = 5 und λ3 = 4 mit den algebraischen Vielfachheiten κ1 = 1, κ2 = 1, κ3 = 2. Satz 3.40: Verschieben von Eigenwerten (»shiften«): Sind λ1 , . . . , λr die Eigenwerte der komplexen (n, n)-Matrix A, so besitzt die Matrix Aε := A + ε E

die Eigenwerte µi = λi + ε (i = 1, . . . , r ) .

µi und λi haben gleiche algebraische Vielfachheit. 30 Dieser Abschnitt kann beim ersten Lesen übergangen und später nachgeschlagen werden.

222

3 Matrizen

Beweis: Die Variable im charakteristischen Polynom von Aε bezeichnen wir mit µ. Es gilt: χ Aε (µ) = det( Aε − µE) = det( A − (µ − ε)E) = χ A (µ − ε) = χ A (λ) mit λ = µ − ε . Die Polynome χ Aε (µ) und χ A (λ) gehen also durch die »Nullpunktverschiebung« µ = λ + ε auseinander hervor, woraus die Behauptung des Satzes folgt.  Satz 3.41: (Eigenwerte von Matrixpotenzen) Hat A ∈ Mat(n; C) die Eigenwerte λi (i = 1, . . . , r ), so sind λim (m ∈ N) Eigenwerte von Am .31

Beweis: Die folgende Formel rechnet man leicht nach: Am − λim E = ( Am−1 + Am−2 λi + Am−3 λi2 + . . . + λim−1 E)( A − λi E) .

(3.160)

Der Multiplikationssatz für Determinanten liefert daher die Aussage: Ist det( A − λi E) = 0, so auch det( Am − λim E) = 0.  Satz 3.42: Für je zwei komplexe (n, n)-Matrizen A, B gilt χ AB = χ B A .

(3.161)

Beweis: Ist A regulär, so erhält man (3.161) sofort aus der Transformationsinvarianz (Satz 3.37): χ AB = χ A−1 ( AB) A = χ B A . Ist A nicht regulär, so bedeutet dies, daß ein Eigenwert von A gleich 0 ist (nach (3.158)). Damit sind aber die Eigenwerte von Aε = A + ε E alle ungleich Null, wenn 0 < ε < ε0 gilt, wobei ε0 das Minimum aller Eigenwertbeträge |λi |  = 0 von A ist (s. Satz 3.40). Also ist Aε regulär, und es gilt χ Aε B = χ B Aε . Für ε → 0 geht dies in (3.161) über. 31 Am = A A . . . A (m Faktoren).



3.6 Eigenwerte und Eigenvektoren

223

Übung 3.35* Beweise: Ist A ∈ Mat(n; C) schiefsymmetrisch, d.h. AT = − A, so gilt

r 

κi λi = 0, wobei die

i=1

λi (i = 1, . . . r ) die Eigenwerte von A sind, mit den zugehörigen algebraischen Vielfachheiten κi .

3.6.4

Eigenvektoren und Eigenräume

Definition 3.21: Es sei A eine komplexe (n, n)-Matrix, also A ∈ Mat(n; C), und λi einer ihrer Eigenwerte. Die Lösungen x i der Eigengleichung ( A − λi E)x i = 0

(3.162)

bilden einen Unterraum von Cn , der der Eigenraum zu λi genannt wird. Seine Dimension wird die geometrische Vielfachheit γi von λi genannt. Sie errechnet sich aus γi = dim Kern( A − λi E) = n − Rang( A − λi E) .

32

(3.163)

Bemerkung zu reellen Matrizen. Ist A = [aik ]n,n reell, (was in der Praxis meistens der Fall ist), und ist der Eigenwert λi von A auch reell, so kann man dazu natürlich aus (3.162) reelle Eigenvektoren x i berechnen. Mehr noch: die Basis des Eigenraums zu λi kann man aus reellen Vektoren bilden. Denn die Dimension des Lösungsraumes von ( A−λi E)x = 0 ist γi = n−Rang( A−λi E), auch wenn wir im Rn arbeiten. Es gibt also γi linear unabhängige reelle Vektoren, die den Eigenraum aufspannen. Ist dagegen λi ein »echt« komplexer Eigenwert der reellen Matrix A, also Im λi  = 0, so sind alle Eigenvektoren auch »echt« komplex. In diesem Falle ist übrigens auch λi ein Eigenwert von A, da χ A ein reelles Polynom ist. Es gilt nämlich χ A (λi ) = χ A (λi ) = 0. Wir erinnern: Ein Eigenwert λi von A hat die algebraische Vielfachheit κi , wenn λi eine κi -fache Nullstelle des charakteristischen Polynoms χ A ist. Es folgt Satz 3.43: Für die geometrische Vielfachheit γi und die algebraische Vielfachheit κi eines Eigenwertes λi von A ∈ Mat(n; C) gilt 1 ≤ γi ≤ κi .

(3.164)

Beweis: γi ≥ 1 ist trivial, denn zu jedem Eigenwert gibt es mindestens einen Eigenvektor. Zum Nachweis von γi ≤ κi behandeln wir zuerst den Fall λi = 0. 1. Fall: λi = 0. Das charakteristische Polynom von A hat nach Satz 3.36 die Form χ A (λ) = c0 + c1 (−λ) + c2 (−λ)2 + . . . + cn−1 (−λ)n−1 + (−λ)n , 32 Nach Abschn. 3.2.3, Satz 3.4, (3.21), u. Bem. vor Übung 3.7.

224

3 Matrizen

wobei cr gleich der Summe aller (n − r )-reihigen Hauptunterdeterminanten von A ist (r = 0,1, . . . , n − 1). Wegen λi = 0 ist nach (3.163): γi = n − Rang A ,

also

Rang A = n − γi ,

d.h. alle Hauptunterdeterminanten verschwinden, die mehr als n − γi Zeilen haben. Folglich gilt 0 = c0 = c1 = . . . = cγi −1 = 0 , also: χ A (λ) = λγi (−1)γi (cγi + cγi +1 (−λ) + . . . + (−λ)n−γi ) . Der Faktor λγi zeigt, daß die algebraische Vielfachheit des Eigenwertes λi = 0 mindestens γi ist, d.h.: κi ≥ γi . 2. Fall: λi  = 0. In diesem Falle betrachtet man A0 := A − λi E an Stelle von A. Nach dem »Shift« -Satz 3.40 hat A0 einen Eigenwert 0 mit der algebraischen Vielfachheit κi , und — wie man unmittelbar einsieht — mit der geometrischen Vielfachheit γi . Fall 1 liefert daher auch hier  κi ≥ γi . Bemerkung: In der Ingenieurpraxis hat man es häufig mit Matrizen zu tun, bei denen die algebraische und geometrische Vielfachheit jedes Eigenwertes gleich 1 sind oder zumindest übereinstimmen: κi = γi (s. Beispiele 3.16 und 3.17 in den Abschn. 3.6.2, 3.6.3). Daß dies aber nicht so sein muß zeigt uns die folgende einfache Matrix: Beispiel 3.18:    3 − λ 3 1 A= ⇒ χ A (λ) =  0 3 0

 1  = (3 − λ)2 . 3 − λ

A hat den Eigenwert λ1 = 3 mit der algebraischen Vielfachheit κ1 = 2. Die geometrische Vielfachheit γ1 von λ1 erhalten wir aus   0 1 γ1 = 2 − Rang( A − λ1 E) = 2 − Rang = 2 − 1 = 1. 0 0 Also: γ1 = 1, aber κ1 = 2. Beispiel 3.19: Allgemeiner gilt für Matrizen der Form ⎡ ⎤⎫ λ1 1 ⎪ ⎪ ⎢ ⎥⎪ ⎪ λ 1 1 ⎢ ⎥⎪ ⎪ ⎬ ⎢ ⎥ . .. ⎥ λ J=⎢ 1 ⎢ ⎥⎪ n-Zeilen ⎢ ⎥⎪ ⎪ . .. ⎣ ⎪ 1 ⎦⎪ ⎪ ⎭ λ1

0

0

(n ≥ 2)

(3.165)

3.6 Eigenwerte und Eigenvektoren

225

folgendes: Einziger Eigenwert ist λ1 . Er hat die algebraische Vielfachheit κ1 = n und die geometrische Vielfachheit γ1 = 1. Der Leser prüft dies leicht nach. Eine Matrix J der Gestalt (3.165) heißt »Jordanmatrix« oder »Jordankasten«. In Abschn. 3.7 spielen diese Matrizen eine Rolle. Wir untersuchen nun die Frage, wie groß der Vektorraum ist, den alle Eigenvektoren einer Matrix A ∈ Mat(n; C) aufspannen, ja, ob sie unter Umständen den ganzen Raum Cn aufspannen. Dazu beweisen wir zunächst die folgenden beiden Sätze: Satz 3.44: Gehören die Eigenvektoren x 1 , . . . , x r zu paarweise verschiedenen Eigenwerten λ1 , . . . , λr der Matrix A ∈ Mat(n; C), dann sind sie linear unabhängig. Beweis: Wir haben zu zeigen, daß aus α1 x 1 + . . . + αr x r = 0 (αi ∈ C , i = 1, . . . , r )

(3.166)

stets αk = 0 für alle k = 1, . . . , r folgt. Dazu multiplizieren wir (3.166) von links mit den Matrizen ( A − λ j E), j = 2, . . . , r : ( A − λ2 E)( A − λ3 E) . . . ( A − λr E)

r 

αk x k = 0 .

(3.167)

k=1

Beachten wir dabei die Gleichung  (λk − λ j )x k , ( A − λ j E)x k = 0,

falls j  = k, falls j = k,

so folgt durch sukzessives Ausmultiplizieren aus (3.167): α1 (λ1 − λ2 )(λ1 − λ3 ) . . . (λ1 − λr )x 1 = 0 , also α1 = 0, da alle Klammern ungleich Null sind. Da α1 keine Sonderrolle spielt — man könnte ja einfach umnumerieren — folgt daraus α j = 0 für alle j = 1, . . . , r .  Satz 3.45: Eine Matrix A ∈ Mat(n; C) hat genau dann n linear unabhängige Eigenvektoren, wenn algebraische und geometrische Vielfachheit bei jedem Eigenwert übereinstimmen. Beweis: λ1 , . . . , λr seien die Eigenwerte von A mit den algebraischen (= geometrischen) Vielfachheiten κ1 , . . . , κr . Zu jedem Eigenwert λ j wählen wir κ j linear unabhängige Eigenvektoren u j1 , . . . , u jκ j aus dem zu λ j gehörenden Eigenraum. Wegen κ1 + . . . + κr = n sind dies zusammen n Vektoren. Zum Nachweis der linearen Unabhängigkeit dieser Vektoren betrachten wir eine

226

3 Matrizen

Linearkombination κj r  

α jk u jk = 0 ,

α jk ∈ C .

(3.168)

j=1 k=1

Mit xj =

κj 

α jk u jk

folgt

k=1

r 

xj = 0

(3.169)

j=1

und aus Satz 3.44 somit x j = 0 für alle j = 1, . . . , r . Die linke Gleichung in (3.169) liefert damit α jk = 0 für alle j, k, da die u j1 , . . . , u jκ j linear unabhängig sind. Damit sind die Vektoren u jk linear unabhängig. Umgekehrt setzen wir nun voraus, daß es n linear unabhängige Eigenvektoren von A gibt. Sie spannen zusammen alle Eigenräume auf, so daß für deren Dimensionen γi (= geometrische  γi = n gilt. Da für die algebraischen Vielfachheiten κi auch κi = n gilt, Vielfachheiten) i

folgt nach Subtraktion

i  (κi − γi ) = 0, wegen (κi − γi ) ≥ 0 also κi − γi = 0, d.h. κi = γi für i



alle i. Folgerung 3.16: Hat die Matrix A ∈ Mat(n; C) genau n (paarweise verschiedene) Eigenwerte, so spannen die zugehörigen Eigenvektoren den Raum Cn auf. Speziell: Hat die reelle (n, n)-Matrix A genau n reelle Eigenwerte, so spannen die zugehörigen reellen Eigenvektoren den Raum Rn auf.

Beweis: Das charakteristische Polynom χ A hat nach Voraussetzung n (paarweise verschiedene) Nullstellen. Da χ A den Grad n hat, sind alle Nullstellen einfach, d.h. jeder Eigenwert λ j hat die algebraische Vielfachheit κi = 1. Aus Satz 3.43 folgt für die geometrische Vielfachheit γi damit γi = κi = 1, woraus mit Satz 3.45 die Behauptung folgt. Für den reellen Spezialfall siehe die Bemerkung nach Definition 3.19.  Wenn die Eigenvektoren von A ∈ Mat(n; C) den gesamten Raum Cn aufspannen, so können wir A in eine besonders einfache Gestalt transformieren, nämlich auf Diagonalform, wobei die Eigenwerte in der Diagonalen stehen. Wir vereinbaren in diesem Zusammenhang: Definition 3.22: Eine Matrix A ∈ Mat(n; C) heißt diagonalisierbar (oder diagonalähnlich), wenn sie sich in eine Diagonalmatrix transformieren läßt, d.h. wenn es eine reguläre Matrix C ∈ Mat(n; C) gibt mit C −1 AC = diag(α1 , . . . , αn )

(αi ∈ C) .

3.6 Eigenwerte und Eigenvektoren

227

Es folgt der krönende Satz dieses Abschnittes: Satz 3.46: Eine Matrix A ∈ Mat(n; C) läßt sich genau dann in eine Diagonalmatrix transformieren, wenn sie n linear unabhängige Eigenvektoren besitzt. Genauer: Sind x 1 , . . . , x n die genannten linear unabhängigen Eigenvektoren von A, so gilt mit der daraus gebildeten Matrix C = [x 1 , . . . , x n ]: C −1 AC = diag(λ1 , λ2 , . . . , λn ) .

(3.170)

Dabei sind λ1 , . . . , λn die Eigenwerte von A. Sie entsprechen den Eigenvektoren x 1 , . . . , x n . Die λ1 , . . . , λn brauchen dabei nicht paarweise verschieden zu sein. Beweis: (I) Wir setzen folgendes voraus: A hat n linear unabhängige Eigenvektoren x 1 , . . . , x n . Aus ihnen wird die Matrix C = [x 1 , . . . , x n ] gebildet. Die Inverse C −1 schreiben wir in der Form C −1 = [ y1 , . . . , yn ]T . ( yiT sind also die Zeilenvektoren von C −1 ). Wegen C −1 C = E gilt  1 , für i = k, yi · x k = δik = 0 , für i  = k. Damit folgt die Behauptung (3.170) aus C −1 AC = C −1 A[x 1 , . . . , x n ] = C −1 [ Ax 1 , . . . , Ax n ] = [ y1 , . . . , yn ]T [λ1 x 1 , . . . , λn x n ] = [ yi · (λk x k )]n,n = [λk δik ]n,n = diag(λ1 , . . . , λn ) . (II) Wir setzen nun umgekehrt voraus, daß es zu A ∈ Mat(n; C) eine reguläre Matrix C gibt, sowie Zahlen λ1 , . . . , λn ∈ C, die die Gl. (3.170) erfüllen. Daraus folgt AC = C diag(λ1 , . . . , λn ) , mit C = [x 1 . . . x n ], also: [ Ax 1 , . . . , Ax n ] = [λ1 x 1 , . . . , λn x n ] , d.h. Ax k = λk x k für alle k = 1, . . . , n. Die λk sind also Eigenwerte und die x k (k = 1, . . . , n) die zugehörigen Eigenvektcren. Sie sind linear unabhängig, da C regulär ist. Damit ist der Satz bewiesen. 

228

3 Matrizen

Zusammengefaßt ist also folgende prägnante Aussage bewiesen: Satz 3.47: (Diagonalisierbarkeitskriterium) Eine komplexe (n, n)-Matrix A ist genau dann diagonalisierbar, wenn die algebraische und die geometrische Vielfachheit für jeden Eigenwert von A übereinstimmen. Übung 3.36* Man bestimme die Eigenvektoren der Matrix ⎡ ⎤ β γ α ⎢ ⎥ A = ⎣γ α β ⎦ , α, β, γ ∈ R paarweise verschieden. α β γ

Übung 3.37* Besitzen die folgenden Matrizen dieselben Eigenvektoren? ⎡ ⎤ ⎡ ⎤ γ α β α β γ ⎢ ⎥ ⎢ ⎥ B = ⎣α β γ ⎦ , C = ⎣β γ α ⎦ , α, β, γ ∈ R paarweise verschieden. β γ α γ α β

Übung 3.38: Berechne für das Schwingungsproblem in Beispiel 3.16, Abschn. 3.6.2 bzw. Übung 3.33 die Eigenvektoren b1 , b2 . Spalte die allgemeine Lösung (3.145) in Real- und Imaginärteil auf.

3.6.5

Symmetrische Matrizen und ihre Eigenwerte

Symmetrische Matrizen treten z.B. bei Schwingungen oder Bewegungen elastischer Stoffe auf, wobei die Reibung vernachlässigt wird. Auch bei geometrischen Figuren, wie Kegelschnitten, Ellipsoiden, Hyperboloiden usw. begegnen wir ihnen. Die Eigenwerte der symmetrischen Matrizen sind dabei der Schlüssel zum tieferen Verständnis. Die Eigenwerttheorie symmetrischer Matrizen, also reeller Matrizen S mit S = ST , ist sehr geschlossen und — man kann sagen — »harmonisch«. Ein kurzer Abriß der Hauptergebnisse wurde schon in Abschn. 3.5.5 (Satz 3.31) und Abschn. 3.5.7 gegeben. Im Folgenden leiten wir diese und andere Ergebnisse systematisch her. Der folgende Satz stellt die Grundlagen dafür zusammen. Satz 3.48: Für jede reelle symmetrische (n, n)-Matrix S = [sik ]n,n gilt folgendes: (a) Alle Eigenwerte von S sind reell. (b) Eigenvektoren x i , x k ∈ Rn , die zu verschiedenen Eigenwerten λi , λk von S gehören, stehen rechtwinklig aufeinander.

3.6 Eigenwerte und Eigenvektoren

229

(c) Geometrische und algebraische Vielfachheit stimmen bei jedem Eigenwert von S überein. Beweis: (a): Es sei λ ein Eigenwert von S und x ein zugehöriger Eigenvektor. Damit ist x ∗ x = 2 |x| =: r  = 0 reell34 , und es folgt 33 Zu

x ∗ Sx = x ∗ λx = λx ∗ x = λr .

(3.171)

Für jede komplexe Zahl z, aufgefaßt als (1,1)-Matrix, gilt z = z T . Damit, und mit der Symmetrie von S, folgt für die komplexe Zahl x ∗ Sx: x ∗ Sx = (x ∗ Sx)T = x T ST x ∗ T = x ∗ Sx = x ∗ Sx = λr = λr . Der Vergleich mit (3.171) liefert λr = λr , also λ = λ, d.h. λ ist reell. Zu (b): Wegen λi  = λk ist einer dieser Werte ungleich 0, z.B. λi  = 0. Aus Sx i = λi x i folgt xi =

1 Sx i λi

und

x iT =

1 T T 1 x S = x iT S , λi i λi

also x iT x k =

1 T 1 λk T x Sx k = x iT λk x k = x xk . λi i λi λi i

Aus der Gleichheit des linken und des rechten Ausdruckes erhält man   λk 1− x iT x k = 0 ⇒ x iT x k = 0 , d.h. x i · x k = 0 . λi Zu (c): Es sei λ˜ ein Eigenwert von S, wobei κ seine algebraische und γ seine geometrische Vielfachheit bezeichnen. Zu beweisen ist: κ = γ . Ohne Beschränkung der Allgemeinheit nehmen wir λ˜ = 0 an. Andernfalls würden wir die ˜ durchführen, die 0 als Eigenwert hat, Untersuchungen für die »geshiftete« Matrix S0 = S − λE mit denselben algebraischen und geometrischen Vielfachheiten wie λ˜ bzgl. S. Aus dem Eigenraum des Eigenwertes λ˜ = 0, wählen wir eine Orthonormalbasis (x 1 , . . . , x γ ), (x i ∈ Rn ), und erweitern sie zu einer Orthonormalbasis (x 1 , . . . , x γ , x γ +1 , . . . , x n ) von Rn (s. Abschn. 2.1.4). Aus diesen Vektoren wird die orthogonale Matrix C = [x 1 , . . . , x n ] gebildet. Mit ihr transformieren wir S in M = C T SC =: [αik ]n,n ,

wobei αik = x iT Sx k gilt.

33 Kann beim ersten Lesen überschlagen werden. 34 Es ist x ∗ = x T , wobei x der konjugiert komplexe Vektor zu x ist (vgl. Abschn. 3.5.1, Vorbemerkung).

230

3 Matrizen

Für i ≤ γ oder k ≤ γ erhält man αik = 0, denn: aus i ∈{1, . . . , γ } folgt αik = x iT Sx k = (Sx i )T x k = (0x i )T x k = 0 , aus k ∈{1, . . . , γ } folgt also:

 M=

0

0  M

αik = x iT (Sx k ) = x iT (0x k ) = 0 ,

0 0 γ Zeilen n − γ Zeilen

0 1 M ist dabei eine (n − γ )-reihige quadratische Matrix. Ihre Determinante verschwindet nicht: 1  = 0. Denn aus γ = n − Rang(S − 0E) = n − Rang S folgt det M 1 ⇒ det M 1 = 0 . n − γ = Rang S = Rang M = Rang M

35

Da S und M das gleiche charakteristische Polynom haben (s. Satz 3.37), gilt ˆ , 1 − λ E) χ S (λ) = χ M (λ) = det(M − λE) = λγ (−1)γ det( M

(3.172)

ˆ die (n − γ )-reihige Einheitsmatrix ist. Wegen det M  = 0 hat χ S (λ) also in λ = 0 eine wobei E γ -fache Nullstelle, d.h. κ = γ .  Folgerung 3.17: Zu jeder symmetrischen n-reihigen Matrix kann man n Eigenvektoren x 1 , . . . , x n finden, die eine Orthonormalbasis des Rn bilden. Beweis: Zu jedem Eigenwert λi von S, mit der algebraischen (=geometrischen) Vielfachheit κi , kann man κ i Eigenvektoren finden, die eine Orthonormalbasis des zugehörigen Eigenraumes bilden. Wegen κi = n und Satz 3.48(b) ergeben alle diese Eigenvektoren zusammen eine Orthonormalbasis i



von Rn . Damit folgt ohne Schwierigkeit der zentrale Satz über symmetrische Matrizen: Satz 3.49: (Diagonalisierung symmetrischer Matrizen) Zu jeder symmetrischen n-reihigen Matrix S gibt es eine orthogonale Matrix C mit C T SC =: M = diag(λ1 , . . . , λn ) .

(3.173)

Dabei sind λ1 , . . . , λn ∈ R die Eigenwerte von S. Die λ1 , . . . , λn sind hierbei nicht notwendig verschieden: Jeder Eigenwert kommt in λ1 , . . . , λn so oft vor, wie seine algebraische Vielfachheit angibt. 35 Rang S = Rang M folgert man aus Abschn. 3.2.3, (3.23), und zwar schrittweise: Rang S = Rang SC = Rang C T SC.

3.6 Eigenwerte und Eigenvektoren

231

Zusatz: Die Spalten x 1 , . . . , x n von C sind Eigenvektoren von S, genauer: x i ist ein Eigenvektor zu λi (i = 1, . . . , n). Beweis: Ist (x 1 , . . . , x n ) ein Orthonormalsystem aus Eigenvektoren von S (das nach Folgerung 3.16 existiert), so folgt mit der Matrix C = [x 1 , . . . , x n ]: SC = [Sx 1 , . . . , Sx n ] = [λ1 x 1 , . . . , λn x n ] = C diag(λ1 , . . . , λn ) = C M , mit M = diag(λ1 , . . . , λn ) . (λi Eigenwert, x i Eigenvektor dazu). Aus SC = C M folgt aber C T SC = M, wegen C −1 = C T.  Bemerkung: Damit ist Satz 3.31 aus Abschn. 3.5.5 bewiesen. Seine Anwendung auf quadratische Formen, die schon in Folgerung 3.9, Abschn. 3.5.5 beschrieben wurde, sei hier kurz wiederholt: Jede quadratische Form Q(x) = x T Sx ,

(S symmetrisch n-reihig, x ∈ Rn ),

läßt sich durch eine Substitution x = C y (C orthogonale (n, n)-Matrix) in 1 y) = Q(C y) = (C y)T S(C y) = yT C T SC y = yT M y Q( verwandeln, mit M = diag(λ1 , . . . , λn ) (nach Satz 3.49). Mit y = [y1 , . . . , yn ]T erhält die quadratische Form folglich die Normalform 1 y) = λ1 y12 + λ2 y22 + . . . + λn yn2 . Q(

(3.174)

(Aus diesem Grunde nennt man Satz 3.49 auch Normalformsatz). Wir beschreiben eine physikalisch-technische Anwendung dazu. Beispiel 3.20: Ein homogener Würfel der Masse m und der Kantenlänge a rotiert gleichförmig um eine Achse, die durch einen seiner Eckpunkte verläuft. Er liegt zu einem bestimmten Zeitpunkt so im Koordinatensystem wie es die. Fig. 3.14 zeigt. Mit ω bezeichnen wir den Winkelgeschwindigkeitsvektor, d.h. ω weist in Richtung der Drehachse (wenn man in seine Richtung sieht, dreht sich der Körper im Uhrzeigersinn), und mit ω = |ω| den Betrag der Winkelgeschwindigkeit. Die Mechanik lehrt, daß die kinetische Energie E kin des drehenden Würfels durch folgende Formel gegeben ist: ⎡ ⎤ 8 −3 −3 2 ma ⎣−3 8 −3⎦ . E kin := ωT Jω , mit J = (3.175) 24 −3 −3 8

232

3 Matrizen

Fig. 3.14: Rotierender Würfel um Achse durch 0 in Richtung ω.

E kin stellt sich also als quadratische Form mit der symmetrischen Matrix J dar. Es ist unser Ziel, sie in Normalform zu bringen. Dazu berechnen wir das charakteristische Polynom, wobei wir abkürzend c := ma 2 /24 setzen: −χ J (λ) = λ3 − 24cλ2 + 165c2 λ − 242c3 . Zur Berechnung der Nullstellen dividieren wir −χ J (λ) = 0 durch c3 und erhalten die Gleichung  2    3 λ λ λ − 242 = 0 , − 24 + 165 c c c d.h. 3 2 165x − 242 = 0 , x − 24x +

mit x =

f (x)

λ . c

(3.176)

Mit dem Newtonschen Verfahren (oder durch Probieren) erhält man daraus die einfache Nullstelle x1 = 2 (denn f (2) = 0, f (2)  = 0). Division von (3.176) durch (x − 2) ergibt die Gleichung x 2 − 22x + 121 = 0, welche genau eine Lösung hat, nämlich x2 = 11. Diese Zahl ist eine zweifache Nullstelle (denn f (11) = f (11) = 0, f (11)  = 0). Damit hat J folgende Eigenwerte: λ1 = 2c (einfach), λ2 = 11c (doppelt). Schreiben wir jeden Eigenwert so oft hin, wie seine Vielfalt beträgt, so erhalten wir die Eigenwerte λ1 = 2c ,

λ2 = 11c ,

λ3 = 11c .

(3.177)

3.6 Eigenwerte und Eigenvektoren

Zugehörige Eigenvektoren, errechnet aus ( J − λi E)ωi = 0, sind ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ 1 −1 −1 ω1 = ⎣1⎦ , ω2 = ⎣ 1 ⎦ , ω3 = ⎣ 0 ⎦ , 1 0 1

233

(3.178)

wobei ω1 zu λ1 gehört und ω2 , ω3 den Eigenraum von λ2 (= λ3 ) aufspannen. Nach Orthogonalisierung (durch das Schmidtsche Verfahren, s. Abschn. 2.1.4) gewinnt man ein Orthonormalsystem von Eigenvektoren x 1 , x 2 , x 3 und daraus die Transformationsmatrix C = [x 1 , x 2 , x 3 ]: ⎡ C=

√1 ⎢ 13 ⎢√ ⎣ 3 √1 3

− √1

2 √1 2

− √1



6 ⎥ − √1 ⎥ . 6⎦

0

(3.179)

√2 6

Mit der Substitution ω = C y, y = [y1 , y2 , y3 ]T erhält die kinetische Energie die Form E kin = 3  λi yi2 , also i=1

E kin = c(2y12 + 11y22 + 11y32 ) .

(3.180)

Frage: Für welche Achse ist E kin minimal, wenn der Betrag ω0 = |ω| der Winkelgeschwindigkeit vorgegeben ist? Es gilt ω0 = |ω| = |C y| = | y|, da C orthogonal ist, also y12 + y22 + y33 = ω02 , d.h. y22 + y33 = ω02 − y12 , und somit nach (3.180): E kin = c(2y12 + 11(y22 + y32 )) = c(11ω02 − 9y12 ) .

(3.181)

Der rechte Ausdruck wird minimal, wenn y12 den größtmöglichen Wert annimmt, d.h. y12 = ω02 . Damit folgt y2 = y3 = 0 und aus w = C y: ⎡ ⎤ 1 ω0 ⎣ ⎦ 1 (3.182) ω = ±√ 3 1 mit der Minimalenergie E kin = 2cω02 . Die Achse, für die die Minimalenergie auftritt (sie ist durch die Richtung von ω in (3.182) gegeben), verläuft also durch 0 und [1,1,1]T , d.h. sie ist eine Raumdiagonale des Würfels. Wir fügen schließlich den »Trägheitssatz« an, der z.B. bei linearen partiellen Differentialgleichungen zweiter Ordnung eine Rolle spielt.

234

3 Matrizen

Satz 3.50: (Trägheitssatz) Zu jeder reellen symmetrischen (n, n)-Matrix S gibt es eindeutig bestimmte Zahlen p, q ∈ {0,1, . . . , n} und eine reguläre reelle (n, n)-Matrix W mit ⎡ ⎤ 0 0 Ep W T SW = ⎣ 0 −E q 0⎦ , Rang S = p + q . (3.183) 0 0 0 Dabei ist E p die p-reihige Einheitsmatrix und E q die q-reihige. Zusatz: p ist die Anzahl der positiven Eigenwerte von S, und q die Anzahl der negativen Eigenwerte. Dabei werden die Eigenwerte so oft gezählt, wie ihre algebraische Vielfachheit angibt. Bemerkung: p − q heißt der Trägheitsindex der Matrix S und das Paar ( p, q) ihre Signatur. Beweis: Es seien λ1 , . . . , λ p die positiven Eigenwerte von S und λ p+1 , . . . , λ p+q die negativen Eigenwerte, wobei sie so oft, wie ihre Vielfachheit angibt, hingeschrieben sind. Im Falle p + q < n kommt noch der Eigenwert 0 hinzu, den wir entsprechend seiner Vielfachheit d = n − p − q auch mehrfach hinschreiben: λ p+q+1 = . . . = λn = 0. Es sei (x 1 , . . . , x n ) ein Orthonormalsystem von Eigenvektoren dazu (s. Folg. 3.16). Mit C . , x n ] folgt nach Satz 3.49 damit √ = [x 1 , . . C T SC = diag(λ1 , . . . , λn ), woraus mit D = diag( |λ1 |, . . . , |λ p+q |, 1, . . . , 1) die Gleichung ⎡

Ep C T SC = D ⎣ 0 0

⎤ 0 0⎦ D 0

0 Eq 0

(3.184)

entsteht. Wir multiplizieren diese Gleichung von links und rechts mit der Diagonalmatrix D−1 und gewinnen daraus mit W := C D−1 die Behauptung des Satzes.  Bemerkung: Der Zusammenhang des Trägheitssatzes mit partiellen Differentialgleichungen der Form Du =

n 

 ∂u ∂ 2u + bi + cu + f = 0 ∂ xi xk ∂ xi n

sik

i,k=1

(3.185)

i=1

(u, sik , bi , c, f abhängig von x = [x1 , . . . , xn ]T ) ist folgender: Es sei S = [sik ]n,n symmetrisch und ( p, q) die Signatur von S. Dann ist d = n − p − q der Defekt von S. Damit nimmt man folgende Typeneinteilung vor: Die Differentialgleichung ist elliptisch, hyperbolisch, parabolisch,

falls falls falls

d = 0, q = 0 oder d = 0, q = n, d = 0, q = 1 oder d = 0, q = n − 1, d > 0,

ultrahyperbolisch,

falls

d = 0, 1 < q < n − 1.

Diese Einteilung gilt jeweils bzgl. eines festen Punktes x. In verschiedenen Punkten x kann

3.7 Die Jordansche Normalform

235

die Differentialgleichung von verschiedenem Typ sein. Sind die sik ∈ R konstant, so hat sie einheitlichen Typus. Bemerkung: Für hermitesche Matrizen H ∈ Mat(n; C) (d.h. H ∗ = H) gelten alle bewiesenen Sätze entsprechend. Insbesondere haben hermitesche Matrizen nur reelle Eigenwerte. Statt Rn hat man dabei Cn zu setzen, wobei das Rechtwinklig-Stehen von x, y ∈ Cn durch x ∗ y = 0 beschrieben wird. Insbesondere gilt also der Satz, daß jede hermitesche Matrix diagonalisierbar ist (analog zu Satz 3.49). Die Beweise werden ganz entsprechend wie bei den symmetrischen Matrizen geführt.

Übung 3.39* Transformiere die folgenden Matrizen auf Diagonalform. Gib die Transformationsmatrizen dazu an!



 ⎡ ⎤ −2 12 3 4 9 −2 −2 −4 0 A= , B= , ⎢−2 11 12 8 4 −3 0 2 0⎥ ⎢ ⎥ ⎡ ⎤ ⎡ ⎤ ⎢ ⎥ S = 0 7 −2 0⎥ . ⎢−2 1 1 3 5 2 2 ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎣−4 2 −2 9 0⎦ D = ⎣1 5 1⎦ , F = ⎣2 2 −4⎦ , 0 0 0 0 3 3 1 1 2 −4 2

Übung 3.40: Berechne im Beispiel 3.20 (rotierender Würfel) die Richtung ω einer Rotationsachse, bei der die kinetische Energie E kin maximal wird. Es gibt mehrere solche Achsen. Wie liegen alle diese Achsen? Gib die maximale Energie E kin dazu an!

3.7

Die Jordansche Normalform

Symmetrische und hermitesche Matrizen lassen sich auf Diagonalform transformieren. Dies gilt nicht für jede Matrix A ∈ Mat(n; C), denn sind algebraische und geometrische Vielfachheit auch nur eines Eigenwertes von A verschieden, so läßt sich A nicht diagonalisieren (s. Satz 3.47, Abschn. 3.6.4). Doch wir kommen mit einem »blauen Auge« davon, wie uns der folgende Satz 3.51 lehrt. Nach diesem Satz kann man jede Matrix A ∈ Mat(n; C) auf Jordansche Normalform transformieren und damit »fast« diagonalisieren. Zur Vorbereitung dient folgende Vereinbarung:

236

3 Matrizen

Definition 3.23: Eine Matrix J der Form ⎡

J = [ jik ]m,m

⎢ ⎢ ⎢ =⎢ ⎢ ⎢ ⎣

λ



1 λ

0

bzw. J = [λ] = λ 36 ,

1 λ

.. ..

0⎥⎥ . .

⎥ ⎥, ⎥ ⎥ 1⎦ λ

falls m ≥ 2, λ ∈ C

falls m = 1,

heißt eine Jordanmatrix oder ein Jordankasten. Dabei ist also jii = λ, ji,i+1 = 1, jik = 0 sonst. Satz 3.51: (Transformation auf Jordansche Normalform) Zu jeder komplexen (n, n)-Matrix A existiert eine reguläre komplexe (n, n)-Matrix T , mit der A auf folgende Gestalt transformiert werden kann: ⎤ ⎡ λi 1 ⎤ ⎡ J1 ⎥ ⎢ λi 1 ⎥ ⎢ ⎥ ⎢ J ⎥ ⎢ 2 .. ⎥ ⎢ ⎥ ⎢ . λ mit J = T −1 AT = J := ⎢ ⎥ i i . ⎥ ⎢ .. ⎦ ⎣ ⎥ ⎢ . .. 1 ⎦ ⎣ Jr λi

0

0

0

0

oder J i = λi

(3.186) (i = 1, . . . , r ) .

Die Blöcke J 1 , J 2 , . . . , J r , sind dabei Jordankästen. Die Matrix J nennt man Jordansche Normalform von A. Sie ist — bis auf Vertauschung der J i — durch A eindeutig bestimmt. Die in den Jordankästen J i auftretenden Zahlen λ1 , . . . , λr sind die Eigenwerte von A. (Denn sie sind zweifellos die Eigenwerte von J und damit auch von A, nach Satz 3.37 in Abschn. 3.6.3.) Dabei brauchen die λ1 , . . . , λr nicht paarweise verschieden zu sein.37 Der Beweis des obigen Satzes wird hier nicht ausgeführt, da er langwierig ist und algebraische Hilfsmittel verlangt, die uns an dieser Stelle nicht zur Verfügung stehen. Der interessierte Leser kann den Beweis z.B. in [81],§35, nachlesen. 38 36 (1,1)-Matrizen werden mit Zahlen identifiziert. 37 Diagonalmatrizen sind spezielle Jordansche Normalformen. 38 C. Jordan bewies 1870 einen allgemeineren Satz, aus dem Satz 3.51 folgt. Allerdings ergibt sich Satz 3.51 auch aus einem Satz von Weierstraß aus dem Jahre 1868, so daß man genauer von »Weierstraß-Jordanscher-Normalform« sprechen könnte.

3.7 Die Jordansche Normalform

237

Beispiel 3.21: Mit



6 A = ⎣8 2

−2 −2 −1

⎤ 3 15⎦ , 8



1 −1 T = ⎣2 1 0 1

⎤ 3 −1⎦ , −2

⎤ ⎡ 0 J1 1 ⎦=⎣ 5

0⎦ .



T −1

−1 =⎣ 4 2

1 −2 −1

⎤ −2 7⎦ 3

folgt ⎡

2 J = T −1 AT = ⎣ 0 0

0 5 0

0



J2

Bemerkung: Dieses Demonstrationsbeispiel wurde so konstruiert, daß J und T vorgegeben wurden, woraus A = T J T −1 berechnet wurde. In der Praxis ist es aber gerade umgekehrt: Aus gegebenem A sollen J und T berechnet werden! Wie macht man das? Satz 3.57, der zunächst nur die Existenz einer Jordanschen Normalform J von A und einer zugehörigen Transformationsmatrix sichert, liefert durch die Gleichung T −1 AT = J einen Ansatz, wie J und T berechnet werden können. Dies soll im Folgenden ausgeführt werden. Wir beginnen mit einem einfachen Sonderfall, der die Struktur von T verständlich macht.

Einfacher Sonderfall: Es sei A ∈ Mat(n; C), n ≥ 2, und ⎡ ⎤ λ 1 ⎢ ⎥ λ 1 ⎢ ⎥ ⎢ ⎥ .. ⎥. . λ T −1 AT = J = ⎢ ⎢ ⎥ ⎢ . .. 1 ⎥ ⎣ ⎦ λ

0

(3.187)

0

Die Jordansche Normalform von A besteht hier aus nur einem Jordankasten. Einziger Eigenwert ist λ. Aus (3.187) folgt AT = T J . Mit T =: [x (1) , x (2) , . . . , x (n) ] wird daraus     Ax (1) , Ax (2) , . . . , Ax (n) = λx (1) , x (1) + λx (2) , . . . , x (n−1) + λx (n) ,

(3.188)

238

3 Matrizen

wie man leicht nachrechnet. Durch Gleichsetzen entsprechender Spalten erhalten wir ⎫ ⎧ ( A − λE)x (1) = 0 Ax (1) = λx (1) ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎬ ⎨ ( A − λE)x (2) = x (1) Ax (2) = x (1) + λx (2) ⎪ ⇒ .. .. ⎪ ⎪ ⎪ ⎪ . . ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎭ ⎩ Ax (n) = x (n−1) + λx (n) ( A − λE)x (n) = x (n−1) .

(3.189)

Setzt man in den Gleichungen rechts den Ausdruck von x (1) aus der zweiten Zeile in die erste Gleichung, den Ausdruck für x (2) aus der dritten Zeile in die gerade entstandene Gleichung usw., so erhält man nacheinander ⎫ ⎧ x (1)  = 0 ( A − λE)x (1) = 0⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎬ ⎨ ( A − λE)2 x (2) = 0⎪ ( A − λE)x (2) = x (1)  = 0 sowie (3.190) .. ⎪ .. ⎪ ⎪ . ⎪ . ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎭ ⎩ n (n) ( A − λE) x = 0 ( A − λE)n−1 x (n) = x (1)  = 0 . Für (n + 1) kann es keinen Vektor mit der entsprechenden Eigenschaft geben, da ( A − λE)n = 0 ist. Dies führt zu folgender Definition: Definition 3.24: Es sei A eine komplexe (n, n)-Matrix und λi ein Eigenwert von A. (a) Ein Hauptvektor k-ter Stufe (zu λi und A) ist ein Vektor x ∈ Cn , der folgendes erfüllt:  ( A − λi E)k x = 0 (k) (k ∈ N) . Bezeichnung: x = x i . ( A − λi E)k−1 x  = 0 (1)

(2)

(m)

(b) Eine endliche Folge von Hauptvektoren x i , x i , . . . , x i , der Stufen 1 bis m (zu λi und A) heißt eine Kette (von Hauptvektoren), wenn (1)

( A − λi E)x i

=0

(2) ( A − λi E)x i

= xi .. .

(m)

= xi

( A − λi E)x i

(1)

(3.191)

(m−1)

gilt (vgl. (3.189)). Dabei wird zusätzlich gefordert, daß die endliche Folge nicht (m) (m) verlängerbar ist, d.h. daß ( A − λi E)x = x i keine Lösung x besitzt. x i heißt in diesem Fall ein Hauptvektor höchster Stufe.

3.7 Die Jordansche Normalform

239

Bemerkung: Hauptvektoren erster Stufe sind nichts anderes als Eigenvektoren (dabei wird ( A − λi E)0 = E gesetzt). Im Beispiel (3.187) bestehen die Spalten von T = [x (1) , . . . , x (n) ] also aus einer Kette von Hauptvektoren, womit die Struktur dieser Transformationsmatrix klar geworden ist. Allgemeiner Fall: A sei eine beliebige Matrix aus Mat(n; C) und T eine (reguläre) Matrix, die A in die Jordansche Normalform J transformiert d.h. es gilt ⎡ ⎢ ⎢ ⎢ ⎢ −1 T AT = J = ⎢ ⎢ ⎢ ⎣

J1

..





⎥ ⎥ ⎥ ⎥ ⎥ ⎦

⎢ ⎢ ⎢ Ji = ⎢ ⎢ ⎢ ⎣

0⎥⎥

.

..

0

.

..

.

mit

λi

0

Jr oder

1 λi



1 λi

.. ..

0⎥⎥ . .

⎥ ⎥. ⎥ ⎥ 1⎦ λi

J i = λi . (3.192)

Nach Satz 3.51 existieren T und J zu A. Die Gleichung T −1 AT = J ist gleichbedeutend mit AT = T J .

(3.193)

Der Jordankasten J i in J habe m i Spalten (i = 1, . . . , r ). Wir schreiben T in folgender Form auf (1)

(m )

(1)

(m )

T = [x 1 , . . . , x 1 1 , . . . , x i , . . . , x i i , . . . , x r(1) , . . . , x r(m r ) ] .          m r Spalten m 1 Spalten m i Spalten Die Numerierung orientiert sich also am Aufbau von J. Diesen Ausdruck für T setzen wir in (3.193) ein und erhalten folgendes (wobei nur die mit i behafteten Spalten hingeschrieben werden, stellvertretend für alle anderen).   (1) (2) (m ) ... , Ax i i , ... AT = T J ⇔ . . . , Ax i , Ax i , (3.194)   (1) (1) (2) (m −1) (m ) + λi x i i , . . . . = . . . , λi x i ,x i + λi x i , . . . ,x i i Durch spaltenweises Gleichsetzen und geringfügiges Umformen erhalten wir daraus (wie im vorangehenden Sonderfall): (1)

( A − λi E)x i

=0

(2) ( A − λi E)x i

= xi .. .

(m i )

= xi

( A − λi E)x i

(1)

(m i −1)

(3.195) .

240

3 Matrizen

Diese Gleichungsfolge ist nicht verlängerbar, d.h.. es existiert kein x ∈ Cn mit ( A − λi E)x = (m ) xi i . (m ) Denn durch Linksmultiplikation mit T −1 geht ( A − λi E)x = x i i über in T −1 ( A − (m ) (m ) λi E)T T −1 x = T −1 x i i . Mit y := T −1 x bedeutet dies ( J − λi E) y = T −1 x i i . Die rechte (m ) Seite T −1 x i i ist der Koordinateneinheitsvektor mit 1 in der Zeile mit Index m 1 + . . . + m i (da T −1 T = E). In der entsprechenden Zeile von J − λi E sind aber alle Elemente 0, also kann es (m ) keine Lösung y und damit kein x mit ( A − λi E)x = x i i geben. — Damit folgt Satz 3.52: Es sei A eine beliebige komplexe (n, n)-Matrix. Eine Matrix T , die A auf Jordansche Normalform J transformiert, hat stets folgende Gestalt:   (1) (m ) (1) (m ) T = x 1 , . . . , x 1 1 , . . . , x i , . . . , x i i , . . . , x r(1) , . . . , x r(m r ) .          1. Kette

i. Kette

(3.196)

r . Kette (1)

(m )

Die Spalten bestehen aus Ketten von Hauptvektoren. Die Kette x i , . . . , x i i gehört dabei zu einem Eigenwert λi von A. Es können mehrere Ketten zu ein- und demselben λi gehören. Umgekehrt transformiert jede reguläre (n, n)-Matrix T der beschriebenen Gestalt die Matrix A auf Jordansche Normalform J. Es existiert stets eine solche Matrix T . Beweis: Beweis: Der erste Teil des Satzes ist oben hergeleitet worden. Der Beweis der Umkehrung (letzter (1) (m ) Absatz) ergibt sich so: Jede Kette x i , . . . , x i i erfüllt (3.195), damit gilt auch (3.194), und folglich AT = T J. Die Existenz von T wird durch Satz 3.51 gesichert.  Übung 3.41: Weise an Hand des Beispiels 3.21 nach, daß die letzten beiden Spalten von T eine Kette von Hauptvektoren zum Eigenwert 5 von A bilden.

3.7.1

Praktische Durchführung der Transformation auf Jordansche Normalform

Es sei A eine beliebige komplexe (n, n)-Matrix mit n ≥ 2. Grundlage für die praktische Transformation von A auf Jordansche Normalform ist Satz 3.52. Wir haben also eine Matrix T zu konstruieren, die die Form (3.196) hat. Das geschieht folgendermaßen: (I) Man schreibt das charakteristische Polynom χ A (λ) = det( A − λE) explizit hin und errechnet daraus die Eigenwerte λ1 , λ2 , . . . , λs (= Nullstellen von χ A ) mit den zugehörigen algebraischen Vielfachheiten κ1 , . . . , κs (z.B. mit dem Newtonschen Verfahren).

3.7 Die Jordansche Normalform

241

(II) Man berechnet zu jedem Eigenwert λi so viele linear unabhängige Eigenvektoren v i1 , . . . , v iγi

(3.197)

wie möglich. Im Falle γi = κi bricht man hier ab. Andernfalls fährt man so fort: Man ermittelt aus der Gleichung ( A − λi E)v =

γi 

t j vi j ,

(v, t1 , . . . , tγi ) gesucht,

(3.198)

j=1

so viele Lösungen (2)

(2)

v i j , . . . , v iγi2 wie möglich, die mit (3.197) ein System linear unabhängiger Vektoren bilden. Die t j ∈ C werden dabei so gewählt, daß (3.198) lösbar ist. Im Falle γi + γi2 = κi bricht man ab. Andernfalls errechnet man anschließend aus ( A − λi E)v =

γi 

(1)

t j vi j +

j=1 (3)

γi2 

(2) (2)

t j vi j

(k)

(t j

∈ C)

j=1 (3)

so viele Lösungen v i j , . . . , v iγi3 wie möglich, so daß mit allen vorher berechneten Vektoren ein System linear unabhängiger Vektoren entsteht, usw. Man hört auf, wenn κi linear unabhängige Vektoren entstanden sind. Die zuletzt berechneten Vektoren sind Hauptvektoren höchster Stufe. Durch sukzessives Multiplizieren mit ( A − λi E) gewinnt man aus jedem von ihnen eine Kette von Hauptvektoren. (k)

Sind noch linear unabhängige Vektoren v i j übrig, so suche man die mit höchsten k und bilde auch daraus Ketten durch aufeinanderfolgendes Multiplizieren mit ( A − λi E). Da(k) nach suche man wieder die übrigen noch linear unabhängigen v i j und verfahre mit ihnen (k)

entsprechend, usw., usw., bis schließlich kein v i j mehr übrig ist. Für λi können auf diese Weise z.B. folgende Ketten entstehen: (1)

(2)

(3)

(1)

(2)

(3)

(1)

(2)

(1)

x , x i1 , x i1 , x i2 , x i2 , x i2 , x i3 , x i3 , x i4 .  i1          Kette Kette Kette Kette Dabei ist κi = 9, γi = 4. (III) Hat man so für jeden Eigenwert λi Ketten von Hauptvektoren gewonnen, dann faßt man sie alle zu Spaltenvektoren einer Matrix T zusammen, wobei keine Kette auseinandergerissen wird. T ist eine Transformationsmatrix, wie wir sie gesucht haben.

242

3 Matrizen (1)

(m)

Bemerkung: Wir benutzen hierbei, daß die Vektoren x i , . . . , x i abhängig sind. Man sieht dies so ein: Aus m 

(k)

αk x i

einer Kette stets linear un-

=0

k=1

folgt durch Linksmultiplikation mit ( A − λi E)m−1 zunächst αm = 0, durch Linksmultiplikation mit ( A − λi E)m−2 ferner αm−1 = 0 usw., also αk = 0 für alle k = m, m − 1, . . . , 1. An zwei Zahlenbeispielen soll die Methode klar gemacht werden. Das erste ist extrem einfach, während das zweite wichtige Details der Methode verdeutlicht. Das zweite Beispiel kann als Muster für den allgemeinen Fall angesehen werden. Beispiel 3.22: Die Matrix  −12 A= −9

 25 18

soll auf Jordansche Normalform transformiert werden. (I) Das charakteristische Polynom lautet   −12 − λ 25  χ A (λ) =  = λ2 − 6λ + 9 . −9 18 − λ Auflösen von λ2 −6λ+9 = 0 liefert die einzige Nullstelle λ1 = 3. Sie ist folglich der einzige Eigenwert von A. Er hat die Vielfachheit κ1 = 2 (denn es ist χ A (λ1 ) = 0, χ A (λ1 )  = 0). (II)1 Aus ( A − 3E)x (1) = 0 (x (1) = [x1 , x2 ]T ) folgt  −15x1 − 25x2 = 0 d.h. 3x1 − 5x2 = 0 , −9x1 − 15x2 = 0

also z.B. x

(1)

  5 = . 3

x (1) ist einziger Eigenvektor (bis auf einen skalaren Faktor). (II)2 Einen Hauptvektor x (2) der 2. Stufe errechnet man aus     −15x1 − 25x2 = 5 x1 (2) (1) (2) . ( A − 3E)x = x , mit x = x2 −9x1 − 15x2 = 3 Das bedeutet −3x1 + 5x2 = 1. Mit der willkürlichen Setzung x2 = 0 erhält man daraus x1 = 1/3. Damit ist   −1/3 ein Hauptvektor 2. Stufe. x (2) = 0

3.7 Die Jordansche Normalform

243

(III) x (1) , x (2) bilden eine Kette. Mit der Transformationsmatrix     0 1/3 5 −1/3 (1) (2) −1 T = [x , x ] = und T = −3 5 3 0 erhält man damit die Jordansche Normalform von A:   3 1 −1 J = T AT = . 0 3 Beispiel 3.23: Die Matrix ⎡ −1 ⎢1 ⎢ A=⎢ ⎢2 ⎣1 6

⎤ 6 −2 3 −3 −1 1 −1 1 ⎥ ⎥ −13 7 −4 2 ⎥ ⎥ −12 5 −2 1 ⎦ −19 7 −8 8

(3.199)

soll auf Jordansche Normalform transformiert werden. Man geht dabei folgendermaßen vor: (I) Das charakteristische Polynom χ A = det( A − λE) errechnet man explizit durch direktes Auswerten der Determinante oder (einfacher) durch Satz 3.36, Abschn. 3.6.3. Man erhält χ A (λ) = −λ5 + 11λ4 − 48λ3 + 104λ2 − 112λ + 48 . Skizzieren des Graphen von χ A und/oder Anwendung des Newtonschen Verfahrens (oder Probieren) liefert die Nullstellen λ1 = 3 und λ2 = 2 von χ A . Anschließend überprüft man die Ableitungen: χ A (3)  = 0 ;

χ A (2) = χ A (2) = χ A (2) = 0 ;

χ AIV (2)  = 0 .

3 ist also einfache Nullstelle, 2 dagegen vierfache. Somit lauten die Eigenwerte von A:

λ1 = 3 (κ1 = 1) , λ2 = 2 (κ2 = 4) .

(3.200)

Das charakteristische Polynom kann daher in folgender Form geschrieben werden: χ A (λ) = −(λ − 3)(λ − 2)4 .

(3.201)

(II)0 Eigenvektor zu λ1 = 3. Aus ( A − λ1 E)x 1 = 0 errechnet man mit dem Gaußschen Algorithmus den Eigenvektor x 1 = [1, 0, 1, 1, −1]T . Dabei wird die letzte Komponente (willkürlich) gleich −1 gesetzt. Da die algebraische Vielfachheit von λ1 gleich κ1 = 1 ist, gilt dies auch für die geometrische Vielfachheit: γ1 = 1 (wegen 1 ≤ γ1 ≤ κ1 ). x 1 spannt also den (eindimensionalen) Eigenraum zu λ1 = 3 auf. Damit bildet x 1 eine Hauptvektorkette der Länge 1. (II)1 Eigenvektor zu λ2 = 2. Aus ( A − λ2 E)x = 0 sind die Eigenvektoren x zu λ2 mit dem Gaußschen Algorithmus zu bestimmen. Wir beschreiben dies genauer und benutzen dazu

244

3 Matrizen

die Abkürzung ⎡

−3 ⎢1 ⎢ N := A − λ2 E = ⎢ ⎢2 ⎣1 6

6 −2 −3 1 −13 5 −12 5 −19 7

3 −1 −4 −4 −8

⎤ −3 1⎥ ⎥ 2⎥ ⎥. 1⎦ 6

(3.202)

Zu lösen ist N x = 0 (x = [x1 , . . . , x5 ]T gesucht). Durch den Gaußschen Algorithmus (ohne Pivotierung) wird N x = 0 in folgendes Trapezsystem verwandelt: ⎧ ⎫ − 3x1 + 6x2 − 2x3 + 3x4 − 3x5 = 0⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ = 0⎪ − x2 + 0, 3x3 ⎪ ⎪ ⎨ ⎬ 39 (3.203) = 0⎪ . 0, 6x3 − 2x4 ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ 0 = 0⎪ ⎪ ⎪ ⎪ ⎪ ⎩ ⎭ 0 =0 Es entsteht dabei also die folgende Koeffizientenmatrix R. Die beim Algorithmus benutzten Faktoren cik werden in einer Matrix L zusammengefaßt (vgl. Abschn. 3.8.3, (3.252)): ⎤ ⎡ ⎤ ⎡ 1 −3 6 −2 3 −3 ⎥ ⎢ ⎢−0, 3 1 0⎥ −1 0, 3 0 ⎥ ⎢ ⎥ ⎢ ⎥ (3.204) ⎥ , L = ⎢−0, 6 9 R=⎢ 1 6 −2 0 0, ⎥ ⎢ ⎥ ⎢ ⎦ ⎣ ⎣−0, 3 10 1,5 1 0 0⎦ 0 −2 7 1 0 1

0

0

Es gilt N = L R (vgl. Abschn. 3.8.3)40 Für spätere Zwecke berechnen wir noch L −1 : ⎤ ⎡ ⎤⎡ ⎤⎡ 1 1 1 ⎥ ⎢ 1 ⎥⎢ ⎥ ⎢0, 3 1 1 ⎥ ⎢ ⎥⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ 1 −9 1 1 ⎥ ⎢ ⎥⎢ ⎥ ⎢0, 6 ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ −1,5 1 −10 1 1 0, 3 −1 1 −7 1 2 1 ⎡ ⎤ 1 ⎢ 0, 3 ⎥ 1 ⎢ ⎥ ⎥. =⎢ 3 −9 1 −2, ⎢ ⎥ ⎣ 0,5 3,5 −1,5 1 ⎦ 2 2 −1 0 1

0

In den linken drei Matrizen sind alle nicht angegebenen Elemente gleich 0. 39 0, 3 = 0,3333 . . . (Periode 3). 40 Wird der Gaußsche Algorithmus mit Pivotierung verwendet, so arbeitet man entsprechend mit N = P L R (vgl. Satz 3.55, Abschn. 3.8.3).

3.7 Die Jordansche Normalform

245

Das System (3.203) kann damit kurz durch Rx = 0 beschrieben werden. Zur Bestimmung der Lösungsgesamtheit setzen wir x4 = t, x5 = s als beliebige Parameter an. Auflösen von (3.203) »von unten nach oben« ergibt damit: x3 = 3t, x2 = t, x1 = t − s und somit die Lösung von N x = 0 in der Form ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ t −s 1 −1 ⎢t ⎥ ⎢1⎥ ⎢0⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎥ = t x 2 + s x 3 mit x 2 := ⎢3⎥ , x 3 := ⎢ 0 ⎥ x=⎢ ⎢3t ⎥ ⎢ ⎥ ⎢ ⎥ (3.205) ⎣t ⎦ ⎣1⎦ ⎣0⎦ s 0 1 ⇒ x 2 , x 3 bilden eine Basis des Eigenraums von λ2 = 2. Die geometrische Vielfachheit von λ2 = 2 ist somit gleich γ2 = 2. Da die algebraische Vielfachheit von λ2 gleich κ2 = 4 ist, müssen noch 2 (= κ2 − γ2 ) Hauptvektoren höherer Stufe gebildet werden. (II)2 Hauptvektoren 2. Stufe zu λ2 = 2: Aus

N x = t x2 + s x3

(3.206)

sind die Hauptvektoren x der 2. Stufe zu ermitteln. Rechts vom Gleichheitszeichen steht eine beliebige Linearkombination der Basis x 2 , x 3 des Eigenraumes von λ2 . Wegen N = L R liefert (3.206) nach Linksmultiplikation mit L −1 : Rx = t L −1 x 2 + s L −1 x 3 , also ⎤ ⎡ ⎤ ⎡ −1 1 ⎢−0, 3⎥ ⎢ 1, 3 ⎥ ⎥ ⎢ ⎥ ⎢ ⎥ ⎥ ⎢ Rx = t ⎢−8, 3⎥ + s ⎢ ⎢ 2, 3 ⎥ . ⎣ −0,5 ⎦ ⎣ 0,5 ⎦ 1 −1

(3.207)

Da in Rx die letzten beiden Koordinaten gleich 0 sind (s. R in (3.204)), so folgt 0 = 0,5t − 0,5s und 0 = t − s. Diese Gleichungen liefern beide t = s. Da es nur auf Lösbarkeit ankommt, setzen wir o.B.d.A. t = s = 1. Zu lösen ist also ⎡ ⎤ 0 ⎢1⎥ ⎢ ⎥ ⎥ Rx = ⎢ (3.208) ⎢−6⎥ . ⎣0⎦ 0 Die linke Seite Rx sieht dabei so aus wie die linke Seite in (3.203). Um eine Lösung zu

246

3 Matrizen

bekommen, wird x4 = x5 = 0 gesetzt. Man erhält die spezielle Lösung ⎡ ⎤ −2 und damit alle Lösungen von (3.206) in der Form ⎢−4⎥ ⎢ ⎥ (2) (2) ⎥ x 0 := ⎢ x (2) := x 0 + λx 2 + µx 3 ⎢−9⎥ ⎣0⎦ (λ, µ ∈ C beliebig), 0

(3.209)

denn die Eigenvektoren x 2 , x 3 spannen den Lösungsraum des homogenen Systems Rx = 0 (⇔ N x = 0) auf (vgl. Satz 3.53(d), Abschn. 3.8.1). Mit t = s = 1 und x = x (2) hat man damit die Lösungen der Ausgangsgleichung (3.206) gefunden. Die rechte Seite dieser Gleichung wird damit zu ⎡ ⎤ 0 ⎢1⎥ ⎢ ⎥ (1) ⎥ x 3 := 1x 2 + 1x 3 = ⎢ ⎢3⎥ . ⎣1⎦ 1 Somit gilt (1)

N x (2) = x 3

(3.210)

(II)3 Hauptvektoren 3. Stufe zu λ2 = 2: Aus (2)

N x = x (2) = x 0 + λx 2 + µx 3

(3.211)

ist ein Hauptvektor x der 3. Stufe zu berechnen. Wir gehen wie in (II)2 vor: Multiplikation mit L −1 von links liefert (2)

Rx = L −1 x 0 + λL −1 x 2 + µL −1 x 3 , also ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ −1 1 −2 ⎢ 1, 3 ⎥ ⎢−0, 3⎥ ⎢−4, 6⎥ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎥ ⎢ Rx = ⎢ 31, 6 ⎥ + λ ⎢−8, 3⎥ + µ ⎢ ⎢−2, 3⎥ . ⎣ 0,5 ⎦ ⎣−0, 5⎦ ⎣ −1,5 ⎦ −3 1 −1

(3.212)

Links sind die letzten beiden Koordinaten Null, also folgt 0 = −1,5 + λ0,5 − µ0, 5 und 0 = −3 + λ − µ. Daraus ergibt sich λ = 3 + µ. (Dies erfüllt beide Gleichungen für λ und µ.) Wir setzen (willkürlich) µ = 1 und damit λ = 4 (da wir nur Lösbarkeit brauchen, gleichgültig mit welchen λ, µ). Mit x4 = x5 = 0 folgt aus (3.212) die spezielle Lösung ⎡ ⎤ −1 und damit die Lösungsgesamtheit in der Form ⎢0⎥ ⎢ ⎥ (3) (3) ⎥ x 0 := ⎢ (3.213) x (3) := x 0 + ν x 2 + ηx 3 ⎢1⎥ ⎣0⎦ (ν, η ∈ C beliebig). 0

3.7 Die Jordansche Normalform

247

Mit µ = 1, λ = 4 erhalten wir noch den Hauptvektor 2. Stufe auf der rechten Seite von (3.211); er wird zu ⎡ ⎤ 1 ⎢0⎥ ⎢ ⎥ (2) (2) ⎥ x 3 := x 0 + 4x 2 + 1x 3 = ⎢ (3.214) ⎢3⎥ . ⎣4⎦ 1 Damit gilt (2)

N x (3) = x 3 .

(3.215)

(II)4 Kette von Hauptvektoren. Mehr als zwei Hauptvektoren mit höherer Stufe als 1 brauchen (3) wir nicht. Folglich kann man x (3) =: x 3 speziell wählen. Am einfachsten setzt man ν = η = 0, also (3)

(3)

x 3 = x 0 = [−1,0,1,0,0]T . (1)

(2)

(3)

Damit bilden x 3 , x 3 , x 3 eine Kette von Hauptvektoren, denn es gilt (1)

(2)

N x3 = 0 ,

(1)

N x3 = x3 ,

(3)

(2)

N x3 = x2 . (3)

(3)

(Der Leser kann sich davon überzeugen, daß N x = x 3 (⇔ Rx = L −1 x 3 ) unlösbar ist.) (III) Transformationsmatrix. Nehmen wir die vorher berechneten Eigenvektoren x 1 , x 2 hinzu, (1) (2) (3) so ergeben sie mit den x 3 , x 3 , x 3 zusammen ein System linear unabhängiger Vektoren. Wir konstruieren daraus die Transformationsmatrix   (1) (2) (3) (3.216) T = x1, x2, x3 , x3 , x3 und berechnen auch gleich T −1 : (1) (2)



(3)

x1 x2 x3 x3 x3

1 ⎢0 ⎢ T =⎢ ⎢1 ⎣1 −1

1 1 3 1 0

⎤ 1 −1 0 0⎥ ⎥ 3 1⎥ ⎥, 4 0⎦ 1 0

0 1 3 1 1



T −1

−4 ⎢5 ⎢ =⎢ ⎢−5 ⎣1 1

11 −13 14 −3 −5

−4 5 −5 1 2

5 −6 6 −1 −2

⎤ −4 4⎥ ⎥ −4⎥ ⎥. 1⎦ 1

Es folgt ⎡ ⎢ ⎢ −1 J := T AT = ⎢ ⎢ ⎣



3

0

2 2 1 0 2 0 0

0 ⎥⎥



⎣ 0 ⎥ ⎥= ⎦ 1 2



J1

0

J2

0 ⎦. J3

(3.217)

248

3 Matrizen

Damit ist A auf Jordansche Normalform transformiert. Es sei erwähnt, daß man die Jordansche Normalform J in obiger Gleichung schon an Hand der Struktur von T in (3.216) voraussagen kann. Die explizite Berechnung von T −1 kann man also einsparen. Bemerkung: Bei der Lösung von linearen Differentialgleichungssystemen 1. Ordnung erweist sich die Transformation von Matrizen auf Jordansche Normalform als wertvolles Hilfsmittel (s. Burg/Haf/Wille (Band III) [24], Abschn. 3.2).

Übung 3.42* Transformiere die folgenden Matrizen auf Jordansche Normalform

A=



−8 −1

4 , −4



−27 ⎢ F = ⎣ 10 20 ⎡

15 −2 −10

1 ⎢−4 ⎢ ⎢ M = ⎢−4 ⎢ ⎣5 −3

B=

−38 30

⎤ −45 ⎥ 15 ⎦ , 33 −4 11 5 −22 5

2 −4 −1 9 −2

 −45 , −37 ⎡

−14 ⎢ G=⎣ 8 12 −2 5 3 −9 3



⎤ 9 −2 7 6 6 ⎢ ⎥ C= , D = ⎣8 1 14⎦ , 0 6 0 0 5 ⎤ ⎡ ⎤ 1 −1 1 −2 8 −25 ⎢0 1 0 −1⎥ ⎥ ⎥ ⎢ −2 13 ⎦ , H = ⎢ ⎥, ⎣−1 0 3 −1⎦ −2 21 0 1 0 3



⎤ 1 −3⎥ ⎥ ⎥ −2⎥ . ⎥ 5⎦ −2

Übung 3.43: Es sei A eine komplexe (n, n)-Matrix und λ1 ein zugehöriger Eigenwert. Wir kürzen ab: d j := dim Kern( A − λ1 E) j

(= n − Rang( A − λ1 E) j ) .

Zeige, daß folgendes gilt: 1 ≤ d1 < d2 < . . . < dm = dm+1 = dm+2 = . . . mit einem m ∈ N. Es folgt zusätzlich: dm ist gleich der algebraischen Vielfachheit κ1 von λ1 . Hinweis: Man nehme zunächst an, daß A die Gestalt einer Jordanschen Normalform J hat, A = J, und beweise die Aussage für diesen Fall. Den Allgemeinfall beweise man dann, indem man A zuerst auf die Jordansche Normalform transformiert.

3.7 Die Jordansche Normalform

3.7.2

249

Berechnung des charakteristischen Polynoms und der Eigenwerte einer Matrix mit dem Krylov-Verfahren

Das folgende Verfahren von A.N. Krylov41 eignet sich gut für kleinere quadratische Matrizen, etwa mit Zeilenzahlen ≤ 8. Es sei A eine reelle oder komplexe (n, n)-Matrix mit n (paarweise verschiedenen) Eigenwerten. Krylov-Verfahren: Man wähle einen beliebigen Vektor z 0  = 0 (z 0 ∈ Cn ) z.B. z 0 = [1,1, . . . , 1]T und bilde nacheinander z 1 = Az 0 z 2 = Az 1 .. . z n = Az n−1 .

(3.218)

Anschließend berechne man die Lösung (α0 , . . . , αn−1 ) des folgenden linearen Gleichungssystems (sofern es regulär ist): n−1 

αk z k = −(−1)n z n .

(3.219)

k=0

Dann sind α0 , . . . , αn−1 nebst αn := (−1)n die Koeffizienten des charakteristischen Polynoms, d.h. es gilt χ A (λ) =

n 

αk λk .

(3.220)

k=0

Hieraus kann man nun mit einem Nullstellensuchverfahren für Polynome (z.B. dem NewtonVerfahren) die Eigenwerte von A bestimmen. Ist (3.218) kein reguläres System, probiert man das Verfahren erneut mit z 0 = [−1,1,1, . . . , 1]T , dann mit z 0 = [−1, −1,1, . . . , 1]T usw. Hat man diese Vektoren ohne Erfolg verwendet, so bricht man ab. A ist (wahrscheinlich) nicht diagonalisierbar. Theoretischer Hintergrund: λ1 , λ2 , . . . , λn seien die n Eigenwerte von A und x 1 , . . . , x n zugehörige Eigenvektoren (d.h. x i zu λi für alle i = 1, . . . , n). Die x 1 , . . . , x n sind linear unabhängig (s. Folg. 3.16, Abschn. 3.6.4). Für z 0 existiert daher eine Darstellung z0 =

n 

γi x i ,

γi ∈ C .

i=1

41 Alexei Nikolajewitsch Krylov (1863 – 1945), russischer Schiffsbauingenieur und Mathematiker.

(3.221)

250

3 Matrizen

Man nimmt nun (stillschweigend) an, daß γi  = 0

für alle i = 1, . . . , n

(3.222)

gilt. Bei einem zufällig gewählten z 0 ist dies höchst wahrscheinlich der Fall. Sollte man mit dem ersten Versuch z 0 = [1,1, . . . , 1]T scheitern, so ist doch stark zu hoffen, daß (3.222) für einen der übrigen Kandidaten z 0 = [−1,1, . . . , 1]T usw. gilt. Wir zeigen Hilfssatz 3.1: Gilt (3.221) nebst (3.222), so ist das lineare Gleichungssystem (3.219) im KrylovVerfahren regulär und mit seinen Lösungen α0 , . . . , αn−1 , nebst αn = (−1)n gilt χ A (λ) =

n 

αk λ k .

(3.223)

k=0

Beweis: Aus (3.218) folgt z k = Ak z 0 (k = 0,1, . . . , n), wie man durch Einsetzen »von oben nach unten« feststellt und damit z k = Ak z 0 =

n 

γi Ak x i =

i=1

n 

γi λik x i .

(3.224)

i=1

Um die Regularität von (3.219), d.h. die lineare Unabhängigkeit von z 0 , z 1 , . . . , z n−1 nachzuweisen setzen wir an: ,n−1 n−1 n−1 n n      µk z k , und folgern: 0 = µk γi λik x i = γi µk λik x i . 0= k=0

k=0

i=1

i=1

k=0

Wegen der linearen Unabhängigkeit der x i und wegen γi  = 0 sind die Summen in den Klammern rechts alle Null. Das Polynom ϕ(λ) :=

n−1 

µk λk

k=0

vom Grade ≤ n − 1 hat also n Nullstellen λ1 , . . . , λn , es kann daher nur das Nullpolynom sein, woraus µk = 0 für alle k = 0, . . . , n − 1 folgt. Die z 0 , . . . , z n−1 sind also linear unabhängig. Zu zeigen bleibt (3.223). Dazu setzen wir in (3.219) αn statt (−1)n und erhalten nach Umstellung daraus , n n n n n      k k 0= αk z k = αk γi λi x i = γi αk λi x i . k=0

k=0

i=1

i=1

k=1

3.7 Die Jordansche Normalform

251

Wegen γi  = 0 und der linearen Unabhängigkeit der x i sind die eingeklammerten Summen rechts alle Null. Das Polynom ψ(λ) :=

n 

αk λk

k=0

hat also die Nullstellen λ1 , . . . , λn und den höchsten Koeffizienten αn = (−1)n . Daher ist ψ mit χ A identisch.  Bemerkung: Die Voraussetzung, daß A nur einfache Eigenwerte hat, also n paarweise verschiedene Eigenwerte, ist bei Matrizen, die in der Technik eine Rolle spielen, meistens erfüllt. Wenn nichts weiter über eine praktisch auftretende Matrix bekannt ist, kann man (stillschweigend) diese Annahme machen. Denn die Ausnahmen sind oft leicht erkennbar, wie z.B. bei starr gekoppelten Schwingungen oder ähnlichen technischen Situationen. Achtung: Obwohl man mit dem Krylov-Verfahren die Koeffizienten des charakteristischen Polynoms χ A gut berechnen kann, so ist doch die Eigenwertberechnung daraus numerisch recht instabil: Winzige Verfälschungen der Koeffizienten können schon zu großen Änderungen der Nullstellen führen. Aus diesem Grunde verwendet man besser iterative Verfahren zur Eigenwertbestimmung. Wir beschreiben in den folgenden Abschnitten einige Verfahren und geben über weitere Verfahren einen Überblick.

Übung 3.44* Berechne das charakteristische Polynom der folgenden Matrix A mit dem Krylov-Verfahren und berechne daraus die Eigenwerte von A. ⎡ ⎤ 24 54 −38 −8 ⎢−11 −27 20 −2⎥ ⎢ ⎥ A=⎢ ⎥. ⎣ 0 −2 3 −6⎦ 6 14 −10 −1

3.7.3

Das Jacobi-Verfahren zur Berechnung von Eigenwerten und Eigenvektoren symmetrischer Matrizen

Es sei A = [aik ]n,n eine reelle symmetrische (n, n)-Matrix, deren Eigenwerte und Eigenvektoren bestimmt werden sollen. Nach einer Idee von Jacobi42 transformiert man A mehrfach mit

42 Carl Gustav Jacobi (1804 – 1851), deutscher Mathematiker

252

3 Matrizen

»Drehmatrizen« folgenden Typs ⎡ 1 ⎢ .. ⎢ . ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ U pq (ϕ) = [u ik ]n,n = ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣

⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥← p ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥← q ⎥ ⎥ ⎥ ⎦

1 c

s 1

..

. 1

−s

c 1

..

. 1

(u ii = 1 für i  = p, q, u pp = u qq = c = cos ϕ, u pq = −u qp = s = sin ϕ, u ik = 0 sonst.) U pq (ϕ) ist eine orthogonale Matrix. Transformation von A führt auf A(1) := U pq (ϕ)T AU pq (ϕ) . (1)

(1)

A(1) ist wieder symmetrisch. Dabei wählt man ϕ so, daß in A(1) die Elemente a pq = aqp = 0 sind. Nun wird A(1) abermals mit einer Drehmatrix U p q (ϕ ) transformiert, wobei die Elemente an den Positionen ( p , q ) und (q , p ) zum Verschwinden gebracht werden usw. Werden dabei alle Indexpaare durchlaufen, die zum unteren Dreieck der Matrix A gehören, und dann nochmal und nochmal usw., so konvergieren die so transformierten Matrizen gegen eine Diagonalmatrix. Man nennt dies das zyklische Jacobi-Verfahren. Für die Herleitung der Formeln im einzelnen und für den Konvergenzbeweis sei auf [125] und [150] verwiesen. Wir geben nun im Folgenden das zyklische Jacobi-Verfahren in algorithmischer Form an. Zyklisches Jacobi-Verfahren Es sei A = [aik ]n,n eine gegebene reelle symmetrische Matrix. Wegen der Symmetrie wird nur mit den Elementen unter der Diagonalen und den Diagonalelementen gearbeitet (aik mit i ≥ k). Nur diese Elemente werden im Computer gespeichert. Ferner wird C := E gesetzt, d.h. es wird eine Matrix C = [cik ]n,n gespeichert mit cii = 1 und cik = 0, falls i  = k (i, k = 1, . . . , n) (C wird im Laufe des Verfahrens in eine Matrix aus Eigenvektoren verwandelt.) Zusätzlich geben wir eine Fehlerschranke ε > 0 vor, z.B. ε = 10−9 · max |aik |. i,k

Zyklusbeginn: Danach wird das untere Dreieck der Matrix A spaltenweise durchlaufen und dabei verwandelt. D.h. das Indexpaar (q, p) durchwandert das folgende Dreieckschema, wobei zuerst die erste

3.7 Die Jordansche Normalform

253

Spalte, dann die zweite Spalte usw. von oben nach unten durchschritten wird: ↓ (2,1) ↓ (3,1)(3,2) ↓ (4,1)(4,2)(4,3) .. .. .. . . .



(n,1)(n,2)(n,3). . . (n, n − 1) . Für jedes (q, p) (q > p) wird dabei folgender Jacobi-Schritt ausgeführt: Falls |aq p | ≥ ε (d.h. »numerisch« = 0) gilt, berechnet man die folgenden Hilfsgrößen (im Falle |aqp | < ε geht man zum nächsten Paar (q, p) über): aqq − a pp w := , 2aq p c := √

1 1 + t2

,

t :=

⎧ ⎨

1

, √ w + sgn(w) w 2 + 1 ⎩ 1,

s := ct ,

r :=

falls w  = 0, falls w = 0,

s 1+c

sowie a pp := a pp − taqp , aqq := aqq + taqp , aqp := 0. 43 .................................................................................... Damit wird folgendermaßen fortgesetzt (vgl. Fig. 3.15) (1) Für alle j = 1,2, . . . , p − 1 berechnet man nacheinander: u := s · (aq j + ra pj ) , und damit a pj := a pj − u ,

v := s · (a pj − raq j ) aq j := aq j + v .

(3.225)

(2) Für alle j = p + 1, p + 2, . . . , q − 1 berechnet man nacheinander: u := s · (a jq + ra j p ) , und damit a j p := a j p − u ,

v := s · (a pj − raq j ) aq j := aq j + v .

(3.226)

(3) Für alle j = q + 1, q + 2, . . . , n berechnet man nacheinander: u := s · (a jq + ra j p ) , und damit a j p := a j p − u ,

v := s · (a j p − ra jq ) a jq := a jq + v .

(3.227)

(4) Zur Eigenvektorermittlung: Für alle j = 1,2, . . . , n berechnet man u := s · (c jq + r c j p ) , v := s · (c j p − r c jq ) und damit c j p := c j p − u , c jq := c jq + v .

(3.228)

254

3 Matrizen

Sind auf diese Weise alle (q, p) mit q > p durchlaufen, so bildet man mit der neu entstandenen Matrix A die »Testgröße« N( A) = 2

n 

2 aik .

(3.229)

i,k=1 i>k

Fig. 3.15: Aufteilung der Matrix beim Jacobi-Verfahren

Gilt N ( A) > ε2 , so springt man zurück zum Zyklusbeginn und führt alles mit der entstandenen Matrix A nochmal durch. Gilt N ( A) ≤ ε2 , so bricht man das Verfahren ab. Die Diagonalelemente a11 , . . . , ann stellen nun mit der relativen Genauigkeit ε die Eigenwerte λ1 , . . . , λn der Ausgangsmatrix dar. Die Spalten von C = [cik ]n,n sind die zugehörigen Eigenvektoren x 1 , . . . , x n . Bemerkung: Das zyklische Jacobi-Verfahren ist numerisch sehr stabil und wegen seiner Einfachheit gut zu programmieren. Aus diesem Grund wird es bei Problemen der Technik gern verwendet. 3.7.4

Von-Mises-Iteration, Deflation und inverse Iteration zur numerischen Eigenwertund Eigenvektorberechnung

Ausblick Bei schwingenden Systemen (Masten, Flugzeugen usw.) entspricht die langsamste Schwingung häufig dem Eigenwert mit maximalem Betrag beim zugehörigen Eigenwertproblem. Interessiert man sich nur für diese »Grundschwingung« (wie es in der Technik gelegentlich vorkommt), so benötigt man eine Berechnungsmethode für den betragsgrößten Eigenwert. Das Von-Mises44 Verfahren hat sich hierbei in der Praxis bewährt. Es hat überdies den Vorteil, daß es sehr einfach zu handhaben ist. 43 Das Zeichen := wird hier als »wird ersetzt durch« interpretiert, wie bei Computeralgorithmen gebräuchlich. 44 Richard Edler von Mises (1883 – 1953), österreichischer Mathematiker

3.7 Die Jordansche Normalform

255

Wir nehmen im Folgenden A als nichtsymmetrische reelle oder komplexe (n, n)-Matrix an. A besitze n paarweise verschiedene Eigenwerte λ1 , . . . , λn , die so numeriert seien, daß |λ1 | > |λ2 | ≥ |λ3 | ≥ . . . ≥ |λn | gilt. x 1 , . . . x n seien Eigenvektoren zu λ1 , . . . , λn . Schließlich sei z 0 ∈ Cn ein beliebig herausgegriffener Vektor, in dessen Darstellung z0 =

n 

γi x i

(3.230)

i=1

der erste Koeffizient nicht verschwindet: γ1  = 0. Man probiert es üblicherweise mit z 0 = [1,1, . . . ,1]T und vertraut darauf, daß γ1  = 0 ist. Darauf werden iterativ die folgenden Vektoren gebildet: z 1 = Az 0 z 2 = Az 1 = A2 z 0 .. .

(3.231)

z k = Az k−1 = Ak z 0 .. . Es gilt dabei offenbar z k = Ak zk =

n 

i=1 γ1 λk1 x 1

γi x i =

n 

γi Ak x i =

n 

γi λik x i ,

i=1 k + γ2 λ2 x 2 + . . . + γn λkn x n

ausführlicher

i=1

.

(3.232)

Hierin überwiegt für große k das erste Glied, so daß damit . z k = γ1 λk1 x 1 . gilt. Dabei soll = bedeuten, daß rechte und linke Seite sich relativ nur um 5 · 10−9 unterscheiden, also mit »8-stelliger Genauigkeit« übereinstimmen. Aus . . z k+1 = Az k = γ1 λk+1 1 x 1 = λ1 z k ,

. also z k+1 = λ1 z k

erhält man λ1 (mit 8-stelliger Genauigkeit) durch Division zweier entsprechender Koordinaten ungleich 0 von z k+1 und z k . Da die |z k | bei diesem Prozeß stark wachsen oder fallen können, fügt man bei jedem Schritt noch eine Multiplikation mit einem Skalar ein. Man gelangt damit zu folgendem Algorithmus, der sich gut programmieren läßt:

256

3 Matrizen

Von-Mises-Verfahren (I) Setze z 0 = [1,1,1, . . . ,1]T und ε = 5 · 10−9 ............................................................................... (II) Berechne v 1 := Az 0 ,

z 1 :=

v1 vk1 ,1

(v 1 = [v11 , v21 , . . . vn1 ]T , vk1 ,1 betragsgrößte Koordinate von v 1 )

............................................................................... (III) Berechne sukzessive für j = 2,3,4, . . . ............................................................................... (IV) v j := Az j−1 , λ j

:= vk j−1, j

z j :=

vj vk j , j

(v j = [v1 j , v2 j , . . . vn j ]T , vk j , j betragsgrößte Koordinate von v j )

(k j−1 ist der Index der betragsgrößten Koordinate von v j−1 aus dem vorangehenden Schritt, vk j−1, j ist die entsprechende Koordinate in v j )

............................................................................... (V) Brich die Rechnung ab, wenn |λ j − λ j−1 | ≤ ε|λ j | oder

j = 30 gilt.

. Nach Abbruch bei j < 30 ist λ1 := λ j mit 8-stelliger Genauigkeit ermittelt. z j =: x 1 ist ein zugehöriger Eigenvektor. Ist j = 30 erreicht, so ist etwas schiefgegangen. Man probiert daher aufs neue mit z 0 = [−1,1,1, . . . , 1]T , nützt auch das nichts, so nimmt man hypothetisch an, daß |λ1 | ≈ |λ2 | > |λ3 | ≥ . . . ≥ |λn |

(3.233)

gilt. Beginnend mit z 30 wird so fortgefahren: (III∗ ) Berechne sukzessive für j = 30, 32, 34, . . . ............................................................................... (IV∗ ) v j+1 = Az j ,

v j+2 = Av j+1 ,

v j+2 vk j+2 , j+2 , (vk j+2 , j+2 wie in (IV)), ferner α1 , 0, und λ 1 , λ 2 als Lösungen von λ2 + α1 λ + α0 = 0.

z j+2 =

α0 ∈ C aus v j+2 + α1 v j+1 + α0 z j =

...............................................................................

3.7 Die Jordansche Normalform

257

(V∗ ) Brich ab, wenn (|λ j − λ j−2 | < ε|λ j | und

|λ j − λ j−2 | < ε|λ j |)

oder j = 60 .

. . Nach Abbruch bei j < 60 hat man die Eigenwerte λ1 = λ j , λ2 = λ j mit relativer Genauigkeit ε. Eigenvektoren dazu lassen sich leicht bestimmen. Abbruch bei j = 60 signalisiert das Versagen der Methode. Dies tritt im praktischen Falle äußerst selten ein. Bemerkung: Die Begründung für die Variante (III∗ ), (IV∗ ), (V∗ ) verläuft ähnlich wie beim Krylov-Verfahren. Deflation A ∈ Mat(n; C) besitze die paarweise verschiedenen Eigenwerte λ1 , . . . , λn . Hat man einen Eigenwert λ1 nebst Eigenvektor x 1 mit dem von-Mises-Verfahren (oder einem anderen Verfahren) gewonnen, so kann man A in eine Matrix 1 A verwandeln, die eine Zeile und Spalte weniger hat als A, und die die Eigenwerte λ2 , λ3 , . . . , λn besitzt, also von Index 2 an die gleichen wie A. Man nennt dieses Deflation von A. Bestimmt man anschließend einen Eigenwert λ2 von 1 A nebst Eigenvektor, so kann man abermalige Deflation durchführen usw. Auf diese Weise entsteht ein Verfahren, mit dem man alle Eigenwerte einer Matrix bestimmen kann. Eine praktisch gut funktionierende Deflations-Methode ist folgende. Sie stammt von Wielandt.45 Zunächst nehmen wir ohne Beschränkung der Allgemeinheit an, daß für den Eigenvektor (1) (1) (1) (1) (1) x 1 = [x1 , x2 , . . . , xn ]T gilt: |xi | ≤ 1 für alle i = 1, . . . , n, sowie x1 = 1. Wäre dies nicht der Fall, so würde man den Vektor zunächst durch seine betragsgrößte Koordinate dividieren und (1) dann durch Vertauschen von Koordinaten und Umindizieren x1 = 1 erzwingen (falls nötig). Die entsprechenden Zeilen-und Spaltenvertauschungen nimmt man auch bei A vor. Die dann vorliegende Matrix heiße wieder A. Die gesuchte Matrix 1 A berechnet man dann aus ⎡

(1)

a22 − x2 a12 ⎢ .. 1 A=⎣ . an2 −

(1) xn a12

...

⎤ (1) a2n − x2 a1n ⎥ .. ⎦. .

· · · ann −

(1) xn a1n

Folgerung 3.18: 1 A besitzt die Eigenwerte λ2 , . . . , λn , also vom Index 2 an die gleichen wie A.

45 Helmut Wielandt (1910 – 2001), deutscher Mathematiker

(3.234)

258

3 Matrizen

Beweis: Mit A = [a1 , . . . , an ] und E = [e1 , . . . , en ] ist χ A (λ) = det( A − λE) = det[a1 − λe1 , a2 − λe2 , . . . , an − λen ]

n   = det (ai − λei )x (1) , a2 − λe2 , . . . , an − λen i=1

(denn es wurden Vielfache der 2. bis n-ten Spalte zur 1. Spalte addiert) = det[( A − λE)x 1 , a2 − λe2 , . . . , an − λen ] = det[(λ1 − λ)x 1 , a2 − λe2 , . . . , an − λen ] = (λ1 − λ) det[x 1 , a2 − λe2 , . . . , an − λen ] . (1)

Führt man nun den Gaußschen Algorithmus-Schritt für die erste Spalte aus (Pivot ist x1 so entsteht   1 ∗ χ A (λ) = (λ1 − λ) det = (λ1 − λ) det(1 A − λ1 E) 0 (1 A − λE)

= 1),

mit der (n − 1)-reihigen Einheitsmatrix 1 E. Es ist also χ A (λk ) = det(1 A − λk E) = 0 für alle k = 2,3, . . . , n, d.h. 1 A hat die Eigenwerte λ2 , . . . , λn .  Inverse Iteration nach Wielandt Sind schon genügend gute Näherungen der Eigenwerte von A bekannt, so führt die »Inverse Iteration« nach Wielandt zu sehr genauen Eigenwert-und Eigenvektorberechnungen. Die Methode ist im Prinzip ein inverses von-Mises-Verfahren. Es sei λ k »Näherungswert« eines einfachen Eigenwertes λk von A, und zwar liege λ k dichter an λk als an jedem anderen Eigenwert λ j von A, also 0 < |λk − λ k | < |λ j − λ k | für alle j  = k . Wir setzen µ := λk − λ k .

(3.235)

µ ist der betragsmäßig kleinste Eigenwert von B := A − λ k E ,

(3.236)

denn die Eigenwerte von B sind offenbar gleich λ j − λ k , mit j ∈ {1, . . . n}. Im Prinzip wenden wir nun auf E −1 das von-Mises-Verfahren an. Da 1/µ der betragsgrößte Eigenwert von B −1 ist, wird er dadurch iterativ gewonnen, woraus wir mit (3.235) λk erhalten. Bei der praktischen Durchführung geht man wieder von einem Vektor z 0 ∈ Cn aus, etwa z 0 = [1,1, . . . , 1]T , von dem angenommen werden darf, daß in seiner Darstellung als Linearkom-

3.7 Die Jordansche Normalform

259

bination der Eigenvektoren von B −1 der Koeffizient des Eigenvektors zu 1/µ nicht verschwindet. (Durch Rundungsfehler tritt dies nach einigen Iterationsschritten in der Praxis ein, sollte es einmal a priori nicht der Fall sein.) Die eigentliche Iterationsvorschrift lautet: Wielandt-Verfahren Setze z 0 = [1, . . . ,1]T , ε := 5 · 10−9 . ................................................................................. Berechne sukzessive für j = 1,2,3, . . .: aus ( A − λ k E)v j = z j−1 (mit Gauß-Algorithmus) z k j , j−1 µ j := (vk j , j = betragsgrößte Koordinate von v j ) vk j , j vj z j := vk j , j vj

................................................................................. Brich ab, wenn |µ j − µ j−1 | ≤ ε|µ j |. . . Nach Abbruch ist µ = µ j , also λk = λ k + µ (mit relativer Genauigkeit ε) und z i der zugehörige Eigenvektor. Bemerkung: Mit dem Wielandt-Verfahren lassen sich Eigenwerte beliebig genau berechnen (aus Näherungswerten). Es ist außerdem eins der besten Verfahren zur genauen Ermittlung der Eigenvektoren. Die Kombination von-Mises, Deflation, Wielandt liefert ein gutes Verfahren zur Eigenwert- und Eigenvektorberechnung. Es hat sich bei Flugzeugkonstruktionen gut bewährt. Ausblick auf weitere Verfahren: Bei neueren Verfahren wird A zunächst meistens in eine »Hessenberg- Matrix« B = [b jk ]n,n transformiert (d.h. bik = 0 falls i > k + 1). B ist beinahe eine echte Dreiecksmatrix: Unter der »Nebendiagonalen« b21 , b32 , . . . , bn,n−1 sind alle Elemente 0 (s. [125], S. 247ff, Abschn. 6.3). Aufbauend auf Hessenberg-Matrizen ist vor allem das Q R-Verfahren zu erwähnen, welches heute das bevorzugte Verfahren auf Computern ist, (s. [125], Abschn. 6.4, [150]). Aber auch das Hyman-Verfahren ist zu nennen, welches es gestattet, die Koeffizienten des charakteristischen Polynoms χ A (λ) leicht zu berechnen, s. [125], Abschn. 6.3.4. Für symmetrische Matrizen gibt es eine Reihe von Spezialverfahren, von denen wir hier nur das Jacobi-Verfahren beschrieben haben. Viel neuere Literatur ist um dieses Problem entstanden, insbesondere im Zusammenhang mit finiten Elementen oder Randwertproblemen, s. z.B. [111], [89], [150].

260

3 Matrizen

3.8

Lineare Gleichungssysteme und Matrizen

Zum Lösen linearer Gleichungssysteme steht in erster Linie der Gaußsche Algorithmus zur Verfügung, wie er in Abschn. 2.2 beschrieben ist. Die folgenden Abschn. 3.8.1 bis 3.8.2 dienen dagegen mehr der theoretischen Erfassung der Lösungsstrukturen, unter Verwendung der knappen Matrizenschreibweise. In 3.8.3 und 3.8.4 werden dann wieder praktische Lösungsverfahren für symmetrische bzw. große Systeme angegeben. 3.8.1

Rangkriterium

Ein lineares Gleichungssystem n 

aik xk = bi ,

i = 1, . . . , m

(3.237)

k=1

(aik , bi ∈ R gegeben, xk ∈ R gesucht) läßt sich kurz so schreiben:

Ax = b mit

⎡ ⎤ ⎡ ⎤ x1 b1 ⎢ .. ⎥ ⎢ .. ⎥ n A = [aik ]m,n , x = ⎣ . ⎦ ∈ R , b = ⎣ . ⎦ ∈ Rm . xn

(3.238)

bm

Bemerkung: In Physik und Technik kommt die Beziehung Ax = b als »verallgemeinertes Proportionalitätsgesetz« vielfach vor. Hier eine tabellarische Auswahl (s. [79], S. 90, vgl. auch [97], [72]):

Mechanik Elastizitätslehre: Hookesches Gesetz Elektrizitätslehre: Ohmsches Gesetz Elektrodynamik

A

x

Matrix des Trägheitsmoments symmetrische Matrix der Moduln symmetrische Matrix der Leitfähigkeit symmetrische Matrix der Dielektrizitätszahlen

vektorielle Winkelge- Drehimpuls schwindigkeit elastische Dehnungen elastische Spannungen elektrische Feldstärke Stromdichte elektrische Feldstärke

b

dielektrische Verschiebung

Das Rangkriterium in Abschn. 2.2.5, Satz 2.10, und der Lösungsstruktursatz, Satz 2.11, sollen in die »Sprache der Matrizen« umformuliert werden. Lösung von Ax = b ist jeder Vektor x, der diese Gleichung erfüllt. Mit [ A, b] bezeichnen wir die um b erweiterte Matrix A, das ist die Matrix, die aus A durch Hinzufügen von b als (n + 1)-ter Spalte entsteht. Sind a1 , . . . , an also die Spaltenvektoren von A, so ist [ A, b] = [a1 , . . . , an , b] . Satz 2.10 und Satz 2.11 aus Abschn. 2.2.5 erhalten damit folgende Formulierungen:

(3.239)

3.8 Lineare Gleichungssysteme und Matrizen

261

Satz 3.53: (Rangkriterium) (a) Das lineare Gleichungssystem Ax = b ist genau dann lösbar, wenn folgendes gilt: Rang A = Rang[ A, b] .

(3.240)

(b) Das Gleichungssystem ist genau dann eindeutig lösbar, wenn die Ränge in (3.240) gleich der Spaltenzahl von A sind. (c) Ist n die Spaltenzahl von A und gilt (3.240), so ist die Lösungsmenge von Ax = b eine lineare Mannigfaltigkeit der Dimension d = n − Rang A. (d) Ist u ∈ Rn ein beliebiger (fest gewählter) Lösungsvektor von Ax = b, so besteht die Lösungsmenge aus allen Vektoren der Form x = u + xh ,

mit

Ax h = 0 .

(3.241)

Anknüpfend an (c) nennt man d = Def A := (Spaltenzahl von A) − Rang A

(3.242)

den Defekt der Matrix A. Das homogene lineare Gleichungssystem Ax = 0 hat als Lösungsmenge einen d-dimensionalen Unterraum (nach Satz 3.53 (c) und (d)). Eine Basis (v 1 , . . . , v d ) dieses Unterraums nennt man auch ein Fundamentalsystem von Lösungen. Die Lösungsmenge von Ax = 0 besteht damit aus allen Vektoren der Gestalt x = t1 v 1 + t 2 v 2 + . . . + t d v d

(3.243)

und die Lösungsmenge von Ax = b nach (3.241) aus allen x = u + t1 v 1 + . . . + td v d .

(3.244)

Die numerische Berechnung solcher Vektoren u, v 1 . . . , v d ist in Abschn. 2.2.3 beschrieben. Für lineare Gleichungssysteme mit Koeffizienten aus einem beliebigen Körper K, insbesondere aus C, gilt alles ebenso. Übung 3.45* (a) Entscheide unmittelbar (ohne schriftliche Rechnung), ob das folgende Gleichungssystem eine Lösung hat: 3x + 4y − 7z = 0 6y − 2z = 0 3x + 10y − 9z = 1 .

262

3 Matrizen

Hinweis: Welches sind die Ränge der zugehörigen Matrizen A und [ A, b]? (b) Ersetze die 1 in der rechten Seite der letzten Gleichung durch 0 und berechne ein Fundamentalsystem von Lösungen. ⎡ ⎤ 1 ⎢ ⎥ (c) Ersetze die rechte Seite durch ⎣2⎦ und berechne (falls möglich) die allgemeine Lösung 3 in der Form (3.244).

3.8.2

Quadratische Systeme, Fredholmsche Alternative

Ein n-reihiges quadratisches lineares Gleichungssystem Ax = b hat entweder für alle b ∈ Rn eine eindeutig bestimmte Lösung, oder für keins. Diese Alternative, die schon in Folgerung 2.5 (Abschn. 2.2.4) beschrieben wurde, wird im folgenden Satz verfeinert: Satz 3.54: (Fredholmsche46 Alternative) Für ein lineares Gleichungssystem Ax = b (x, b ∈ Rn )

(3.245)

mit n-reihiger quadratischer reeller Matrix gilt entweder: Ax = 0 hat nur die Lösung x = 0; dann ist Ax = b für jede rechte Seite eindeutig lösbar; oder: Ax = 0 besitzt nichttriviale Lösungen x  = 0. Dann ist Ax = b genau dann lösbar, wenn folgendes gilt: b· y = 0

für alle

y ∈ Rn

mit

AT y = 0 .

(3.246)

In diesem Fall ist die Lösungsmenge von Ax = b eine d-dimensionale Mannigfaltigkeit, wobei d = Def A = n − Rang A = dim(Kern AT ) gilt. Beweis: Es ist nur zu zeigen, daß die Lösbarkeit von Ax = b äquivalent zu (3.246) ist. Alles andere ist schon durch Satz 2.9, Abschn. 2.2.4 (oder Satz 3.53 im vorigen Abschn.) erledigt. Der Beweis verläuft so (dabei sind a1 , . . . , an die Spalten von A): Ax = b lösbar ⇔ b ∈ Bild A ⇔ b ∈ Span{a1 , . . . an } ⇔ b ⊥ Span{a1 , . . . , an }⊥ 47 ⇔ b · y = 0 falls ai · y = 0 für alle i = 1, . . . , n ⇔ b · y = 0 , falls AT y = 0. 46 Erik Ivar Fredholm, (1866 – 1927), schwedischer Mathematiker



3.8 Lineare Gleichungssysteme und Matrizen

263

Beispiel 3.24: Es sei durch Ax = b ,

A = [aik ]3,3 ,

x, b ∈ R3

(3.247)

ein Gleichungssystem beschrieben mit   a a12 det A = 0 und det 11 = 0 . a21 a22 Damit sind die Spaltenvektoren a1 , a2 , a3 linear abhängig, aber a1 , a2 linear unabhängig. Somit ist Rang A = 2. Der Vektor a3 kann als Linearkombination der a1 , a2 dargestellt werden. Man bilde y0 = a 1 × a 2 . Wegen y0 ·a1 = y0 ·a2 = 0 spannt y0 den Raum { y ∈ R3 | AT y = 0} auf. Das Gleichungssystem Ax = b ist also genau dann lösbar, wenn y0 · b = 0 ist. Zahlenbeispiel. Zu lösen ist 5x1 − 3 x2 + x3 = 10 6x1 + 5 x2 − 2x3 = 7 . −8x1 − 21x2 + 8x3 =−1

(3.248)

Die Spaltenvektoren der Koeffizienten seien, wie oben, a1 , a2 , a3 , b. Es ist det[a1 , a2 , a3 ] = 0   5 −3  = 43  = 0, also a1 , a2 , a3 linear abhängig und a1 , a2 linear unabhängig. Es folgt und  6 5 y0 = a1 × a2 , also: ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ 5 −3 −86 −86 10 y0 = ⎣ 6 ⎦ × ⎣ 5 ⎦ = ⎣ 129 ⎦ und y0 · b = ⎣ 129 ⎦ · ⎣ 7 ⎦ = 0 . −8 −21 43 43 −1 Also ist das Gleichungssystem lösbar. Mehr noch: (3.248) ist genau für die rechten Seiten b = [b1 , b2 , b3 ]T lösbar, die y0 · b = 0 erfüllen; also −86b1 + 129b2 + 43b3 = 0, was aufgelöst nach b3 zu folgender Gleichung wird: b3 = 2b1 − 3b2 .

(3.249)

Im einen sind wir frei, im andren sind wir Knechte (Goethe). Wir können hier also b1 , b2 beliebig vorgeben. b3 muß dann aus (3.249) berechnet werden. 47 D.h. b steht rechtwinklig auf jedem Vektor y ∈ Span{a1 , . . . , an }⊥ , dem orthogonalen Komplement von Span{a1 , . . . , an } (s. Abschn. 2.1.4, Def. 2.5 und Folg. 2.3).

264

3 Matrizen

Der Vollständigkeit wegen wird schließlich die Lösung von (3.248) angegeben: ⎤ ⎡ ⎡ ⎤ ⎡ ⎤ 71/43 x1 1/43 ⎣x2 ⎦ = ⎣−25/43⎦ +t ⎣16/43⎦ für alle t ∈ R . 0 1 x3       u

(3.250)

s

u wurde dabei aus (3.248) mit der willkürlichen Setzung x3 = 0 berechnet und s aus (3.248) mit rechter Seite Null und x3 = 1. In beiden Fällen benötigt man nur die ersten beiden Zeilen des Systems (3.248). Bemerkung: Ihre eigentliche Kraft entfaltet die Fredholmsche Alternative in Funktionenräumen, die Hilberträume bilden (vgl. Abschn. 2.4.9). Die vorangehenden Überlegungen lassen sich auf diese Räume sinngemäß übertragen. Die linearen Gleichungssysteme Ax = b werden dabei durch Integralgleichungen der Form .b x(t) −

K (t, s)x(s) ds = b(t) a

ersetzt. Auf diese Weise gelangt man zu Lösbarkeitsaussagen bei Integralgleichungen sowie bei Randwertproblemen der Potentialtheorie, die ihrerseits auf Integralgleichungen zurückgeführt werden (s. Burg/Haf/Wille (Partielle Dgl.) [25], Abschn. 2.2, oder auch [148, 149], [90]).

3.8.3

Dreieckszerlegung von Matrizen durch den Gaußschen Algorithmus, Cholesky-Verfahren

In Abschn. 2.2.1 wurde beschrieben, wie man ein quadratisches Gleichungssystem Ax = b in ein Dreieckssystem überführt, wenn A eine reguläre Matrix ist. Betrachtet man dabei nur die Rechenoperationen, die auf die Elemente von A nach und nach angewendet werden, so wird A dadurch in eine Dreiecksmatrix ⎡ ⎤ r11 r12 · · · r1n ⎢ r22 · · · r2n ⎥ ⎢ ⎥ R=⎢ (3.251) .. ⎥ .. ⎣ . . ⎦

0

rnn (i)

(1)

überführt, wobei rik = aik ist (aik := aik ) für alle i = 1, . . . , n und k ≥ i. Es gilt dabei rii  = 0 für alle i und rik = 0 für i > k. R ist also eine reguläre Dreiecksmatrix. Aus den Faktoren cik (i > k), 48 die beim Gaußschen Algorithmus auftreten (s. (2.29), Abschn. 2.2.1) bilden wir die

48 Die Zeilenindizes i sind hier so gewählt, daß die cik der »Endform« der Dreieckszerlegung entsprechen, s. Fig. 2.2, letztes Schema (Abschn, 2.2.1).

3.8 Lineare Gleichungssysteme und Matrizen

linke unipotente Matrix ⎡ 1 ⎢c21 1 ⎢ L=⎢ . .. .. ⎣ .. . . cn1 · · · cn ,n−1

265



0⎥⎥⎥ .

(3.252)



1

Damit gilt Satz 3.55: Genau dann, wenn A eine reguläre (n, n)-Matrix ist, erzeugt der Gaußsche Algorithmus eine Zerlegung A = PLR, wobei P eine Permutationsmatrix ist und L, R die in (3.251) und (3.252) beschriebenen Dreiecksmatrizen sind. Beweis: Wir denken uns den Gaußschen Algorithmus (s. Abschn. 2.2.1) durchgeführt. Die dabei auftretenden Zeilenvertauschungen führen wir dann nochmals an der ursprünglichen Matrix A durch, was auf eine Multiplikation Pˆ A mit einer Permutationsmatrix Pˆ hinausläuft. Ein zweiter Durchgang des Gaußschen Algorithmus wird nun für Pˆ A ausgeführt. Hier sind keine Zeilenvertauschungen (also keine Spaltenpivotierungen) mehr nötig, denn diese sind durch Pˆ A schon erledigt. Die schrittweise Verwandlung von Pˆ A =: A1 beim Gaußschen Algorithmus wird dann durch A2 := L 1 A1 ,

A3 := L 2 A2 , . . . , An := L n−1 An−1

(3.253)

beschrieben, wobei L j und A j die folgenden Matrizen sind: ⎡ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ Lj = ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣



1 1

..

0 .

..

. 1 −c j+1, j 1

0

⎥ ⎡ (1) (1) ⎥ a11 a12 · · · ⎥ ⎥ ⎢ ⎥ (2) ⎢ a22 · · · ⎥ ⎢ ⎥ ⎢ .. ⎥ ⎢ . ⎥ ⎥ , Aj = ⎢ ⎢ ( j) ⎥ ajj ⎢ ⎥ ⎢ ⎥ .. ⎢ ⎥ ⎣ . ⎥ ⎥ ( j) ⎥ an j ⎦

−c j+2, j .. . −cn, j

..

.

0

0

..

.

(1) ⎤

· · · a1n

⎥ (2) · · · a2n ⎥ ⎥ .. ⎥ . ⎥ ⎥. ( j) ⎥ · · · a jn ⎥ ⎥ . ⎥ .. . .. ⎦ ( j) · · · ann

1

L j ist also eine unipotente linke Matrix, die im Dreieck unter der Hauptdiagonalen in der j-ten

266

3 Matrizen

Spalte die Elemente −c j+1, j , . . . , −cn j aufweist, sonst aber nur Nullelemente unter der Diagonalen hat. (Der Leser prüft die Gleichung A j+1 = L j A j ( j = 1, . . . , n − 1) an Hand des Gaußschen Algorithmus in Abschn. 2.2.1 leicht nach.) Es folgt aus (3.253) durch schrittweises Einsetzen (von rechts nach links) An = L n−1 L n−2 . . . L 1 A1 . Wegen An = R, A1 = Pˆ A also −1 R = L n−1 L n−2 . . . L 1 Pˆ A ⇒ Pˆ A = (L −1 1 . . . L n−1 )R . −1 ˆ −1 so folgt A = P L R, Setzt man L = (L −1 1 . . . L n−1 ) und multipliziert von links mit P = P wie behauptet. 

Bemerkung: Die L −1 j unterscheiden sich von den L j nur dadurch, daß die Minuszeichen vor

−1 dem ci j durch Pluszeichen ersetzt werden. Daß L = (L −1 1 . . . L n−1 ) wieder eine linke unipotente Matrix ist, folgt aus der Tatsache, daß das Produkt zweier solcher Matrizen wieder von diesem Typ ist, kurz, daß die linken unipotenten Matrizen eine Gruppe bilden (s. Abschn. 3.5.2). Auch −1 P = Pˆ ist wiederum eine Permutationsmatrix, da auch diese Matrizen eine Gruppe darstellen.

Folgerung 3.19: Ist A = [aik ]n,n eine reguläre Matrix, für die der Gaußsche Algorithmus ohne Pivotierung bis zu einer regulären Dreiecksmatrix R durchläuft, so folgt A = LR

(mit L nach (3.252).)

(3.254)

Man nennt A = L R eine Dreieckszerlegung von A. Sie ist übrigens eindeutig bestimmt. ˆ so folgte L −1 Lˆ = R ˆ R−1 . Dies ist (Denn gäbe es zwei Dreieckszerlegungen A = L R = Lˆ R, aber gleich E, denn E ist die einzige Matrix, die zugleich linke unipotente Matrix und rechte Dreiecksmatrix ist.) Für spezielle Matrizen kann die Existenz einer L R-Dreieckszerlegung oder gleichbedeutend der formale Durchlauf des Gauß-Algorithmus ohne Pivotierung direkt nachgewiesen werden. Hierzu benötigen wir den Begriff der Hauptabschnittsmatrix. Definition 3.25: Es sei A ∈ Mat(n; R) mit Koeffizienten ai j , i, j = 1, . . . , n, dann heißt ⎡ ⎤ a11 · · · a1k ⎢ .. ⎥ ∈ Mat(k; R) A[k] = ⎣ ... . ⎦ ak1

· · · akk

für k ∈ {1, . . . , n} die führende k × k Hauptabschnittsmatrix.

3.8 Lineare Gleichungssysteme und Matrizen

267

Hilfssatz 3.2: Seien A, L ∈ Mat(n; R), wobei L eine linke Dreiecksmatrix darstellt, dann gilt für k = 1, . . . , n die Darstellung (L A)[k] = L[k] A[k] . Beweis: Sei k ∈ {1, . . . , n} und i, j ∈ {1, . . . , k}, so erhalten wir den Nachweis direkt aus ((L A)[k])i, j =

n 

lim am,k

= 

k 

lim am,k = (L[k] A[k])i, j .



m>k≥i: lim =0 m=1

m=1

Satz 3.56: Sei A ∈ Mat(n; R) regulär, dann besitzt A genau dann eine L R-Dreieckszerlegung, wenn det A[k]  = 0 für alle k ∈ {1, . . . , n} gilt. Beweis: »⇒« Gelte A = L R. Dann folgt mit dem Determinanten-Multiplikationssatz 3.17 0  = det A = det A[n] = det L[n] det R[n] . Da L, R Dreiecksmatrizen darstellen, erhalten wir hiermit det L[k]  = 0

und

det R[k] = 0

für k = 1, . . . , n. Unter Verwendung des Hilfssatzes 3.2 ergibt sich somit det A[k] = det(L R)[k] = det(L[k]R[k]) = det L[k] · det R[k]  = 0 für alle k ∈ {1, . . . , n}. »⇐« Gelte det A[k]  = 0 für alle k ∈ {1, . . . , n}. Zu zeigen ist, daß der Gauß-Algorithmus ohne (k) Pivotierung durchgeführt werden kann. Hierzu ist es notwendig, daß akk  = 0 für k = 1, . . . , n vorliegt. Wir nutzen eine Induktion über k. Für k = 1 erhalten wir (1)

a11 = det A[1]  = 0 . ( p)

Gelte für ein beliebiges k ∈ {1, . . . , n − 1} die Eigenschaft a pp  = 0 für alle p ∈ {1, . . . , k}.

268

3 Matrizen

Folglich konnten die ersten k Schritte des Gaußschen Algorithmus ohne Pivotierung durchgeführt werden und es gilt Ak+1 = L k . . . L 1 A . Aus Hilfssatz 3.2 ergibt sich hiermit det Ak+1 [k + 1] = det L k [k + 1] · . . . · det L 1 [k + 1] · det A[k + 1]  = 0 .       =0

=1

Da Ak+1 [k + 1] eine rechte Dreiecksmatrix darstellt, erhalten wir (k+1)

ak+1,k+1  = 0 . (k)

Somit gilt akk  = 0 für alle k = 1, . . . , n.



Bemerkung: In der Numerik spielt die L R-Zerlegung beim »L R-Verfahren« zur Bestimmung von Eigenwerten eine Rolle, wie bei Varianten des Gaußschen Algorithmus. Eine davon ist das Cholesky-Verfahren, welches lineare Gleichungssysteme mit positiv definiter symmetrischer Matrix löst. Es sei ohne Beweis angegeben (s. dazu [150]). Cholesky-Verfahren49 Gelöst werden soll das Gleichungssystem Ax = b , wobei A eine symmetrische positiv definite (reelle) (n, n)-Matrix ist. A läßt sich zerlegen in ⎤ ⎡ t11 ⎥ ⎢ A = L L T mit einer Dreiecksmatrix L = ⎣ ... . . . (3.255) ⎦

0

tn1

···

tnn

wobei tii > 0 für alle i = 1, . . . , n gilt (siehe [150]). Man gewinnt L schrittweise aus den Formeln  2 − t2 − . . . − t2 tkk = akk − tk1 (3.256) k2 k,k−1 , tki =

1 (aik − ti1 tk1 − ti2 tk2 − . . . − ti,k−1 tk,k−1 ) , tkk

(3.257)

wobei die Indizes (i, k) folgendes Dreieckschema zeilenweise durchlaufen (1,1) (2,1) (3,1) . . . (2,2) (3,2) . . . .. .

(n,1) (n,2) .. .

(n, n) 49 André-Louis Cholesky (1875 – 1918), französischer Mathematiker.

(3.258)

3.8 Lineare Gleichungssysteme und Matrizen

269

Hat man auf diese Weise die Zerlegung A = L L T gewonnen, so wird Ax = b zu L L T x = b. Mit y := L T x sind also die folgenden beiden Gleichungssysteme zu lösen L y = b und

LT x = y .

(3.259)

L y = b wird ohne Schwierigkeit »von oben nach unten« gelöst. Mit dem errechneten y löst man dann L T x = y zeilenweise »von unten nach oben«. Übung 3.46* Löse das folgende Gleichungssystem mit dem Cholesky-Verfahren: 3x1 +2x2 + x3 = 5 2x1 +5x2 − 3x3 = 9 x1 −3x2 + 6x3 =−1 .

3.8.4

Lösung großer Gleichungssysteme

Bei der numerischen Lösung von Differentialgleichungen (durch Differenzenverfahren, finite Elemente oder Reihenansätze) treten oft lineare Gleichungssysteme Ax = b mit großen quadratischen Matrizen A auf (d.h. einigen hundert oder tausend Zeilen und Spalten). Diese Matrizen sind meistens »schwach besetzt«, d.h. viele ihrer Elemente sind Null, insbesondere wenn sie von der Hauptdiagonalen weiter entfernt sind. Man nennt solche Matrizen Bandmatrizen oder Sparse-Matrizen. Der Gaußsche Algorithmus erweist sich für solche Gleichungssysteme Ax = b oft als ungünstig, da er auf die Struktur von A zu wenig Rücksicht nimmt. Man löst solche Gleichungen daher meistens durch »iterative Verfahren«, zu denen wir im Folgenden einen Einstieg geben. Mit dem Gesamt- und Einzelschrittverfahren werden wir hierbei zwei Methoden vorstellen, die jeweils auf einer additiven Zerlegung der regulären Matrix A ∈ Mat(n; R) in der Form A = B + ( A − B)

(3.260)

unter Verwendung einer ebenfalls regulären (n, n)-Matrix B basieren. Aus den Äquivalenzumformungen Ax = b ⇔Bx + ( A − B)x = b ⇔ Bx = (B − A)x + b x = B −1 (B − A)x + B −1 b



(3.261)

wird direkt ersichtlich, daß x genau dann Fixpunkt der durch ϕ(x) = B −1 (B − A)x + B −1 b festgelegten Abbildung ϕ : Rn → Rn ist (d.h. ϕ(x) = x erfüllt), wenn x = A−1 b gilt. Ausgehend von einem beliebigen Ausgangsvektor x 0 ∈ Rn wird bei den numerischen Methoden stets die Iterationsfolge x0, x1, x2, . . .

durch

x i+1 = C x i + d , i = 0,1, . . .

(3.262)

270

3 Matrizen

mit der Iterationsmatrix C = B −1 (B − A)

(3.263)

und dem Vektor d = B −1 b berechnet. Das jeweilige Verfahren heißt konvergent, wenn die Iterationsfolge in (3.262) unabhängig vom gewählten Startvektor x 0 gegen ein eindeutig bestimmtes Grenzelement konvergiert. Aufgrund der oben erwähnten Fixpunkteigenschaft, stellt im Fall der Konvergenz das Grenzelement der Folge stets die Lösung des Gleichungssystems dar. Die auf der in (3.260) präsentierten Zerlegung basierenden Iterationsverfahren unterscheiden sich alleinig in der Wahl der Matrix B. Aus der Sichtweise einer schnellen Konvergenz sollte B eine gute Näherung an A darstellen. Andererseits ist es wichtig, daß B leicht invertierbar ist oder zumindest sich die Wirkung der Matrix B −1 auf einen Vektor leicht berechnen läßt. Die Konvergenz des Verfahrens steht im direkten Zusammenhang mit der vorliegenden Iterationsmatrix C laut (3.263). Die Konvergenz der Methode, die nach obiger Erläuterung stets die Konvergenz der Iterationsfolge gegen die Lösung des linearen Gleichungssystems bedeutet, ist äquivalent zur Eigenschaft, daß der Spektralradius der Iterationsmatrix C der Bedingung ρ(C) < 1 genügt. D.h. alle Eigenwerte der Iterationsmatrix müssen betragsmäßig kleiner als eins sein. Dabei liegt umso schnellere Konvergenz vor, je kleiner der Spektralradius ist. Der Beweis basiert auf dem Banachschen Fixpunktsatz und kann zusammen mit weiteren Erläuterungen zu Iterationsverfahren beispielsweise [96] entnommen werden. Gesamtschrittverfahren Beim Gesamtschrittverfahren, das auch häufig als Jacobi-Verfahren bezeichnet wird, nutzen wir die Matrix B = D = diag(a11 , . . . , ann ) .

(3.264)

Offensichtlich setzt die notwendige Invertierbarkeit der Matrix B hierbei nicht verschwindende Diagonalelemente von A, d.h. aii  = 0 für i = 1, . . . , n, voraus. Diese Eigenschaft kann bei einer regulären Matrix stets durch einen Zeilen- und Spaltentausch gewährleistet werden. Erfüllt A die geforderte Voraussetzung, so erhalten wir die Iterationsvorschrift x i+1 = C x i + d , i = 0,1,2, . . . mit C = D−1 ( D − A) = E − D−1 A und d = D−1 b .

3.8 Lineare Gleichungssysteme und Matrizen

271

In Komponentenschreibweise ergibt sich für den i + 1-ten Iterationsschritt ⎛ ⎞ x i+1 = j

n  ⎟ 1 ⎜ ⎜b j − a jk xki ⎟ ⎝ ⎠ , j = 1, . . . , n , ajj

(3.265)

k=1 k= j

dessen programmtechnische Umsetzung dem MATLAB-Code aus Fig. 3.16 entnommen werden kann.

% Jacobi Verfahren resp. Gesamtschrittverfahren % function jacobi(A,b) % % INPUT VARIABLES: % ---------------% A: quadratische n * n Matrix. % b: rechte Seite. % % LOCAL VARIABLES: % ---------------eps = 1e-12; % Abbruchschranke. maxiter = 5000; % Maximale Iterationszahl n = size(b); % Vektorlänge x_approx = zeros(n,1); % Startvektor x_new = zeros(n,1); % Hilfsvektor x = inv(A) * b; % Lösungsvektor iter = 0; % Iterationszahl xnorm = norm (x_approx - x, 2); fprintf (’%2i\t%e\t%e\n\n’, iter, x_approx, while ( (xnorm > eps) & (iter < maxiter) ) for i=1:n sum = 0; for j=1:n if (j ~= i) sum = sum + A(i,j) * x_approx(j); end; end; x_new(i) = (b(i) - sum) / A(i,i); end; x_approx = x_new; iter = iter + 1; xnorm = norm (x_approx - x, 2); fprintf (’%2i\t%e\t%e\n’, iter, x_approx, end;

xnorm );

xnorm );

Fig. 3.16: MATLAB-Implementierung des Jacobi-Verfahrens

272

3 Matrizen

Wir geben nun einige Konvergenzkriterien an. Wegen der Beweise sei auf [96], [114] und [150] verwiesen. Satz 3.57: Das Gesamtschrittverfahren konvergiert gegen die eindeutig bestimmte Lösung xˆ des regulären Gleichungssystems Ax = b, wenn eine der beiden folgenden Bedingungen (a) oder (b) erfüllt ist: (a) Starkes Zeilensummenkriterium  |aik | < |aii | für alle i = 1, . . . , n .

(3.266)

k=1 k=i

(b) Starkes Spaltensummenkriterium  |aik | < |akk | für alle k = 1, . . . , n .

(3.267)

i=1 i=k

Beispiel 3.25: (a) Zu lösen ist Ax = b mit   1 0,002 A= 0,003 1

und

Man errechnet   0 −0.002 C= −0,003 0

  3 b= . 2

und

d = b.

Mit dem Startvektor x 0 = 0 erhalten wir den in der Tabelle 3.1 dargestellten Konvergenzverlauf. Durch die euklidische Norm des Fehlervektors ei = x i − A−1 b erkennen wir die sehr schnelle Konvergenz des Verfahrens, dessen Kontraktion durch den kleinen Spektral√ radius der Iterationsmatrix ρ(C) = 6 · 10−3 ≈ 2,45 · 10−3 bestimmt ist. Zudem kann die Konvergenz des Verfahrens auch unter Verwendung des Satzes 3.57 nachgewiesen werden. (b) Wir betrachten das parameterabhängige Gleichungssystem     a 14 1 x= . 7 50 1    =A

Analog zum obigen Beispiel nutzen wir den Startvektor x 0 = 0. Der Konvergenzverlauf ist in Abhängigkeit vom Parameter a ∈ R in Tabelle 3.2 dargestellt. Offensichtlich liegt Konvergenz des Verfahrens bei den gewählten Parametern nur für die Werte a ∈ {2,10,100}

3.8 Lineare Gleichungssysteme und Matrizen

273

Tabelle 3.1: Näherungslösung (auf 6 Nachkommastellen gerundet) und Fehlerverlauf des Gesamtschrittverfahrens zum Beispiel 3.25(a). Iterationszahl i 0 1 2 3 4 5

Näherungslösung x2i x1i 0,000000 3,000000 2,996000 2,996018 2,996018 2,996018

0,000000 2,000000 1,991000 1,991012 1,991012 1,991012

Fehler |ei | 3,597 9,831 · 10−3 2,158 · 10−5 5,898 · 10−8 1,295 · 10−10 3,539 · 10−13

vor, wobei umso schnellere Konvergenz erzielt wird, je größer die Zahl a gesetzt wird. Für die Parameterwerte a ∈ {0.1, 1, 1.5} ergibt sich dagegen stets eine divergente Iterationsfolge. Wie bereits erwähnt, geht dieser Sachverhalt mit der Größe des Spektralradius der Iterationsmatrix des Gesamtschrittverfahrens einher. Mit ⎤ ⎡ 14 0 ⎢ a⎥ C = − D−1 ( D − A) = ⎣ 7 ⎦ 0 50 erhalten wir 4 ρ(C) =

98 , 50a

womit ρ(C) < 1 genau dann gilt, wenn a > 1,96 vorliegt. Tabelle 3.2: Parameterabhängige Fehlerverläufe des Gesamtschrittverfahrens zum Beispiel 3.25(b) mit Anfangsvektor x 0 = 0. a = 0,1 IterationsFehler zahl i |ei | 0 5 10 20

3,9 · 10−1 4 · 103 1,1 · 106 3,3 · 1012 a=2

Iterationszahl i

Fehler |ei |

0 1000 2000 3025

1,8 · 101 7,5 · 10−4 3,1 · 10−8 9,98 · 10−13

a=1 IterationsFehler zahl i |ei | 0 10 50 100

7,6 · 10−1 2,2 · 101 1,5 · 107 3,1 · 1014

a = 10 IterationsFehler zahl i |ei | 0 10 20 31

9 · 10−2 2,6 · 10−5 7,5 · 10−9 3,9 · 10−13

a = 1,5 IterationsFehler zahl i |ei | 0 50 100 250

1,6 · 100 1,3 · 103 1,0 · 106 5,3 · 1014

a = 100 IterationsFehler zahl i |ei | 0 5 10 13

2 · 10−2 1,1 · 10−6 5,9 · 10−11 1,6 · 10−13

Man überprüfe den Konvergenznachweis auf der Grundlage des Satzes 3.57.

274

3 Matrizen

Die Kriterien laut Satz 3.57 sind zwar leicht zu überprüfen, doch liefern sie nur hinreichende Bedingungen und reichen für viele praktische Fälle nicht aus. Wir formulieren daher im Folgenden das brauchbare schwache Zeilen- bzw. Spaltenkriterium. Vorerst jedoch eine Definition: Definition 3.26: Eine (n, n)-Matrix A = [aik ]n,n heißt zerlegbar, wenn man sie durch Zeilenvertauschungen und entsprechende Spaltenvertauschungen in die Form N1 N2     B 0 } N1 C D } N2

(3.268)

bringen kann, wobei B, D quadratische Matrizen sind. Mit anderen Worten: A heißt zerlegbar, wenn sich die Indexmenge N = {1, . . . , n} in zwei nichtleere Mengen N1 , N2 zerlegen läßt (d.h. N1 ∪ N2 = N , N1 ∩ N2 = ∅), so daß folgendes gilt: aik = 0

wenn i ∈ N1

und k ∈ N2 .

(3.269)

A heißt unzerlegbar, wenn A nicht zerlegbar ist. Folgerung 3.20: Eine Matrix A = [aik ]n,n deren Nebendiagonalelemente ai,i+1 und ai+1,i (i = 1, . . . , n − 1) alle ungleich Null sind, ist unzerlegbar. Beweis: Wäre A zerlegbar, so gäbe es eine Zerlegung {1, . . . , n} = N1 ∪ N2 (N1 ∩ N2 = ∅, N1  = ∅, N2  = ∅) mit aik = 0 für alle i ∈ N1 , k ∈ N2 . Ist dabei n ∈ N1 und m die größte Zahl aus N2 , so ist m + 1 ∈ N1 , also am+1,m = 0 im Widerspruch zur Voraussetzung. Gilt aber n ∈ N2 und ist m die größte Zahl aus N1 , so folgt m + 1 ∈ N2 und am,m+1 = 0, abermals im Widerspruch zur Voraussetzung. Also ist A unzerlegbar.  Nun kommen wir zu den verbesserten Kriterien (Beweis s. [150], [114]). Satz 3.58: Das Gesamtschrittverfahren konvergiert gegen eine Lösung xˆ von Ax = b, wenn A unzerlegbar ist und eine der folgenden Bedingungen (a) oder (b) erfüllt ist. (a) Schwaches Zeilensummenkriterium: n  k=1 k=i

|aik | ≤ |aii | für alle i = 1, . . . , n ,

(3.270)

3.8 Lineare Gleichungssysteme und Matrizen

275

und n 

|ai0 k | < |ai0 i0 | für mindestens ein i 0 .

(3.271)

k=1 k=i 0

(b) Schwaches Spaltensummenkriterium: n 

|aik | ≤ |akk | für alle k = 1, . . . , n ,

(3.272)

|aik0 | < |ak0 k0 | für mindestens ein k0 .

(3.273)

i=1 i=k

und n  i=1 i=k0

Die Lösung xˆ ist dabei eindeutig bestimmt. Beispiel 3.26: Zu lösen sei die Differentialgleichung u (x) = f (x) ,

x ∈ [a, b]

(3.274)

mit den Randbedingungen u(a) = u(b) = 0. Dabei sei f : [a, b] → R eine stetige gegebene Funktion. u ist gesucht. Wir lösen dieses »Randwertproblem« näherungsweise, indem wir mit Differenzenquotienten statt Differentialquotienten arbeiten: Zuerst wählen wir eine Teilung a = x0 < x1 < x2 < . . . < xn < xn+1 = b des Intervalls [a, b] mit der Schrittweite h=

b−a , n+1

und xk = a + kh ,

(k = 0, . . . , n + 1) .

Für die gesuchte Funktion u wird abkürzend u k = u(xk ) geschrieben. Die erste Ableitung von u an der Stelle xk (1 ≤ k ≤ n + 1) wird näherungsweise durch ∆u k =

1 (u k − u k−1 ) h

ersetzt und entsprechend die zweite Ableitung durch 1 1 (∆u k+1 − ∆u k ) = 2 (u k+1 − 2u k + u k−1 ) h h

(1 ≤ k ≤ n) .

276

3 Matrizen

Die Differentialgleichung (3.274) geht daher über in 1 (u k+1 − 2u k + u k−1 ) = f (xk ) (1 ≤ k ≤ n) . h2

(3.275)

Hierbei ist u 0 = u n+1 = 0 wegen der Randbedingung. Damit ist (3.275) ein lineares Gleichungssystem, das man so schreiben kann: ⎡ ⎤ ⎡ ⎤⎡ ⎤ −2 1 f (x1 ) u1 ⎢ 1 ⎥ ⎢ u 2 ⎥ ⎢ f (x2 ) ⎥ −2 1 ⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ u 3 ⎥ ⎢ f (x3 ) ⎥ 1 −2 1 ⎢ ⎥ ⎢ ⎥⎢ ⎥ 2 (3.276) ⎢ ⎥ ⎢ .. ⎥ = ⎢ ⎥h . .. .. .. .. ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ . . . . ⎢ ⎥⎢ . ⎥ ⎢ ⎥ ⎣ 1 −2 1 ⎦ ⎣u n−1 ⎦ ⎣ f (xn−1 )⎦ f (xn ) 1 −2 un

0

0

Die Koeffizientenmatrix genügt nicht dem starken Zeilensummen- bzw. Spaltensummenkriterium. Doch das schwache Zeilensummenkriterium ist erfüllt, wobei die Matrix nach Folgerung 3.20 unzerlegbar ist. Das Gesamtschrittverfahren führt also zur Lösung. Betrachten wir die rechte Seite f (x) = ex und das Intervall [a, b] = [0,1], so ergibt sich die analytische Lösung u(x) = ex −(e +1)x − 1. In der Tabelle 3.3 ist die euklidische Norm des Fehlervektors ei = ui − uex zwischen der Näherungslösung ui ∈ Rn und dem Lösungsvektor uex = (u(x1 ), . . . , u(xn ))T ∈ Rn für die Schrittweiten h = n1 mit n = 5, 10, 20, 50 über die Iterationszahl i dargestellt. Hierbei wurde stets der Ausgangsvektor u0 = 0 genutzt.

Tabelle 3.3: Fehlerverläufe des Gesamtschrittverfahrens zum Beispiel 3.26 in Abhängigkeit von der Schrittweite h = n1 . n=5 IterationsFehler zahl i |ei | 0 50 100 170

3,9 · 10−2 2,9 · 10−5 2,2 · 10−8 9,3 · 10−13

n = 10 IterationsFehler zahl i |ei | 0 100 300 597

5,2 · 10−2 8,3 · 10−4 2,1 · 10−7 9,9 · 10−13

n = 20 IterationsFehler zahl i |ei | 0 1000 2000 2226

7,2 · 10−2 9,5 · 10−7 1,3 · 10−11 9,9 · 10−13

n = 50 IterationsFehler zahl i |ei | 0 5000 10000 13399

1,1 · 10−1 8,4 · 10−6 6,3 · 10−10 9,98 · 10−13

Wir erkennen, daß die Konvergenzgeschwindigkeit mit wachsendem n ∈ N sehr stark abnimmt. Der Grund hierfür liegt wie erwartet im Verhalten des Spektralradius der Folge von Iterationsmatrizen C(n) ∈ Mat(n; R). Im vorliegenden Beispiel gilt   π ρ(C(n)) = 1 − 2 sin2 , 2(n + 1)

3.8 Lineare Gleichungssysteme und Matrizen

277

wodurch ρ(C(n)) < 1 für alle n ∈ N und lim ρ(C(n)) = 1

n→∞

sichtbar wird. Auf diese Weise lassen sich auch kompliziertere lineare Randwertaufgaben lösen. Übung 3.47: Löse die Randwertaufgabe aus Beispiel 3.26 mit [a, b] = [0, π], f (x) = ecos x und h =

3.8.5

π . 31

Einzelschrittverfahren

Die oftmals auch als Gauß-Seidel-Verfahren bezeichnete Einzelschrittmethode beruht auf der Zerlegung der Matrix A des vorliegenden Gleichungssystems in der Form A = D+ L + R,

(3.277)

wobei die Matrix D ∈ Mat(n; R) analog zum Jacobi-Verfahren den Diagonalanteil von A gemäß (3.264) repräsentiert. Die weiteren Matrizen L = [li j ]n,n und R = [ri j ]n,n stellen den strikten linken unteren respektive rechten oberen Dreiecksanteil von A dar. Das heißt es gilt   ai j , für i > j, ai j , für j > i, li j = ri j = (3.278) 0, sonst , 0, sonst. Motiviert durch die eingangs formulierte Zielsetzung mit B eine möglichst gute Näherung an A vorliegen zu haben, nutzen wir beim Einzelschrittverfahren die Festlegung B = D+ L,

(3.279)

so daß im Vergleich zum Jacobi-Verfahren mit B = D mehr Informationen des zugrundeliegenden Gleichungssystems genutzt werden. Folglich erhalten wir das Iterationsverfahren x i+1 = C x i + d ,

i = 0,1,2, . . .

(3.280)

mit C = ( D + L)−1 ( D + L − A) = −( D + L)−1 R

(3.281)

d = ( D + L)−1 b .

(3.282)

und

Analog zum Jacobi-Verfahren setzt die Invertierbarkeit der Matrix B aufgrund der Dreiecksgestalt (3.279) nicht verschwindende Diagonalelemente von A voraus. Die Bedingungen an A hinsichtlich der Durchführbarkeit der Iterationen sind folglich bei beiden Verfahren identisch. Jedoch zeigt sich bereits beim ersten Betrachten des Einzelschrittverfahrens ein Problem bei der Invertierung der Matrix B = D + L. In der Tat ist die Berechnung der Inversen B −1 in der Praxis

278

3 Matrizen

häufig viel zu rechen- und speicherplatzaufwendig. Aufgrund der vorliegenden Dreiecksgestalt ist die explizite Ermittlung von B −1 glücklicherweise auch unnötig und sollte in der Anwendung somit auch vermieden werden. Zur algorithmischen Durchführung des Verfahrens benötigen wir stets nur die Auswertung des Matrix-Vektor-Produktes B −1 yi , wobei mit (3.281) der Vektor die Gestalt yi = −Rx i aufweist. Da die Berechnung von z i = B −1 yi äquivalent zur Lösung des Gleichungssystems B z i = yi

(3.283)

ist, kann eine Eliminationsstrategie angewendet werden. Bereits in Abschnitt 2.2.1 wurde zur Lösung des Dreieckssystems (2.30) die Rückwärtselimination (2.31) vorgestellt. Im Gegensatz zum System (2.30) liegt in (3.283) eine linke Dreiecksmatrix vor, so daß eine Vorwärtselimination genutzt werden muß. Multiplikation der Iterationsvorschrift (3.280) mit B = D + L liefert unter Verwendung von (3.281) und (3.282) das System ( D + L)x i+1 = −Rx i + b . Betrachten wir die j-te Komponente dieser Gleichung, so erhalten wir unter Berücksichtigung von (3.277) und (3.278) die Darstellung j  k=1

a jk xki+1 = −

n 

a jk xki + b j .

(3.284)

k= j+1

Offensichtlich liegt für j = 1 mit x1i+1 die einzige Unbekannte in (3.284) vor, womit x1i+1 berechnet werden kann. Anschließend wird durch (3.284) mit j = 2 unter Ausnutzung des ermittelt Wertes für x1i+1 die Größe x2i+1 errechnet. Durch Umstellung von (3.284) in der Form ⎛ ⎞ j−1 n   1 ⎝b j − = (3.285) a jk xki+1 − a jk xki ⎠ x i+1 j ajj k=1

k= j+1

wird die Iterierte x i+1 komponentenweise durch (3.285) in der Reihenfolge j = 1, . . . , n ermittelt. Aus der Komponentenschreibweise des Jacobi-Verfahrens (3.265) und des Gauß-SeidelVerfahrens (3.285) wird offensichtlich, daß der Rechenaufwand der beiden Methoden identisch ist, obwohl aufgrund der im Einzelschrittverfahren vorgenommenen Wahl B = D + L zumeist eine bessere Approximation der Matrix A erzielt wurde, die üblicherweise eine schnellere Konvergenz der Methode im Vergleich zum Gesamtschrittverfahren liefert. Ein Nachteil des Einzelschrittverfahrens liegt jedoch in seiner schlechten Nutzung auf modernen Parallelrechnern. Während die n Komponentenberechnungen beim Jacobi-Verfahren in (3.265) unabhängig voneinander durchgeführt und folglich parallel auf n Prozessoren verteilt werden können, liegt in (3.285) eine Abhängigkeit der j-ten Komponente x i+1 von allen zuvor ermittelten Komponenj ten xki+1 , k = 1, . . . , j − 1 vor, wodurch eine direkte Parallelisierung nicht möglich ist. Analog zum Gesamtschrittverfahren läßt sich das Gauß-Seidel-Verfahren gemäß (3.284) sehr

3.8 Lineare Gleichungssysteme und Matrizen

leicht in dem in Fig. 3.17 gezeigten MATLAB-Programm realisieren. % Gauss-Seidel Verfahren resp. Einzelschrittverfahren % function gauss_seidel(A,b) % % INPUT VARIABLES: % ---------------% A: quadratische n * n Matrix. % b: rechte Seite. % % LOCAL VARIABLES: % ---------------eps = 1e-12; % Abbruchschranke. maxiter = 1000; % Maximale Iterationszahl n = size(b); % Vektorlänge x_approx = zeros(n,1); % Startvektor x = inv(A) * b; % Lösungsvektor iter = 0; % Iterationszahl xnorm = norm (x_approx - x, 2); fprintf (’%2i\t%e\t%e\n\n’, iter, x_approx, while ( (xnorm > eps) & (iter < maxiter) ) for i=1:n sum = 0; for j=1:n if (j ~= i) sum = sum + A(i,j) * x_approx(j); end; end; x_approx(i) = (b(i) - sum) / A(i,i); end; iter = iter + 1; xnorm = norm (x_approx - x, 2); fprintf (’%2i\t%e\t%e\n\n’, iter, x_approx, end;

xnorm );

xnorm );

Fig. 3.17: MATLAB-Implementierung des Gauß-Seidel-Verfahrens

Ohne Beweis geben wir die folgende Konvergenzaussage an (s. [150]): Satz 3.59: Das Einzelschrittverfahren konvergiert, (a) falls das starke Zeilensummenkriterium (3.266) erfüllt ist, oder (b) falls das Gesamtschrittverfahren konvergiert und in der Zerlegung D−1 A = ˜ die linke respektive rechte Dreiecksmatrix L˜ bzw. R ˜ nur aus nichtL˜ + E + R positiven Elementen bestehen.

279

280

3 Matrizen

Bemerkung: Die letztgenannte Bedingung ist bei der numerischen Lösung von linearen Differentialgleichungen meistens erfüllt (s. Beispiel 3.26), so daß sie keine ernste Einschränkung bedeutet. Die Bedingung (b) in Satz 3.59 besagt speziell, daß lediglich das schwache Zeilensummenkriterium für A erfüllt sein muß, nebst Unzerlegbarkeit von A und der Vorzeichenbedingung für L˜ ˜ Die Konvergenz des Einzelschrittverfahrens ist dann gesichert. und R. Ein weiteres, leicht überprüfbares Konvergenzkriterium wird durch den folgenden Satz gegeben, dessen Beweis in [96] nachgeschlagen werden kann. Satz 3.60: Das Einzelschrittverfahren konvergiert, falls für die durch pj =

j−1  |a jk | k=1

|a j j |

pk +

n  |a jk | |a j j |

für j = 1,2, . . . , n

k= j+1

rekursiv definierten Zahlen p1 , . . . , pn die Bedingung max p j < 1

j=1,...,n

erfüllt ist. Im Rahmen des folgenden Beispiels werden wir das Einzelschrittverfahren an den bereits für das Gesamtschrittverfahren herangezogenen Gleichungssystemen hinsichtlich seiner Konvergenzeigenschaften untersuchen. Hierdurch ergibt sich jeweils auch eine Vergleichsmöglichkeit zwischen den beiden Algorithmen. Beispiel 3.27: (a) Gegeben sei das Gleichungssystem     1 0,002 3 x= . 0,003 1 2 Analog zum Gesamtschrittverfahren (siehe Beisp. 3.25(a)) nutzen wir den Anfangsvektor x 0 = 0. Die Tabelle 3.4 spiegelt den Konvergenzverlauf der mit dem Einzelschrittverfahren ermittelten Iterationsfolge wider. Um die euklidische Norm des Fehlervektors ei = x i − A−1 b unter die Grenze von 10−12 zu drücken, wurden beim Einzelschrittverfahren 3 Schritte anstelle der beim Jacobi-Verfahren vorliegenden 5 Schritte benötigt. Einfaches Nachrechnen zeigt, daß der Spektralradius der Iterationsmatrix des Einzelschrittverfahrens mit ρ(−( D + L)−1 R) = 6 · 10−5 deutlich unter dem entsprechenden Wert des Gesamtschrittverfahrens laut Beispiel 3.25(a) liegt, wodurch sich die Begründung für die nachgewiesene Konvergenzbeschleunigung ergibt.

3.8 Lineare Gleichungssysteme und Matrizen

281

Tabelle 3.4: Näherungslösung (auf 6 Nachkommastellen gerundet) und Fehlerverlauf des Einzelschrittverfahrens zum Beispiel 3.27(a). Iterationszahl i 0 1 2 3

Näherungslösung x1i x2i 0,000000 3,000000 2,996018 2,996018

0,000000 1,991000 1,991012 1,991012

Fehler |ei | 3,597 3,982 · 10−3 2,389 · 10−8 1,434 · 10−13

(b) Für das parameterabhängige Gleichungssystem     a 14 1 x= 7 50 1 erhalten wir das in Tabelle 3.5 aufgeführte Konvergenz- resp. Divergenzverhalten des GaußSeidel-Verfahrens. Für den Spektralradius gilt ρ(−( D + L)−1 R) =

98 , 50a

so daß zum einen Konvergenz analog zum Gesamtschrittverfahren für alle a > 1,96 vorliegt und zum anderen im Fall der Konvergenz das Einzelschrittverfahren schneller als das Jacobi-Verfahren mit 4 98 −1 ρ( D ( D − A)) = 50a ist. Tabelle 3.5: Parameterabhängige Fehlerverläufe des Einzelschrittverfahrens zum Beispiel 3.27(b) mit Anfangsvektor x 0 = 0. a = 0,1 IterationsFehler zahl i |ei | 0 5 10 20

3,9 · 10−1 1,5 · 106 4,5 · 1012 3,7 · 1025 a=2

Iterationszahl i

Fehler |ei |

0 500 1000 1513

1,8 · 101 7,4 · 10−4 3,0 · 10−8 9,97 · 10−13

a=1 IterationsFehler zahl i |ei | 0 10 50 100

7,6 · 10−1 7,5 · 102 3,7 · 1014 1,5 · 1029

a = 10 IterationsFehler zahl i |ei | 0 5 10 16

9 · 10−2 1,6 · 10−5 4,5 · 10−9 2,6 · 10−13

a = 1,5 IterationsFehler zahl i |ei | 0 50 100 250

1,6 · 100 1,1 · 106 7,1 · 1011 1,9 · 1029

a = 100 IterationsFehler zahl i |ei | 0 2 5 7

2 · 10−2 5,3 · 10−5 4,0 · 10−10 1,5 · 10−13

282

3 Matrizen

(c) Abschließend betrachten wir das in Beispiel 3.26 vorgestellte Gleichungssystem analog zum Jacobi-Verfahren. Die Tabelle 3.6 belegt im Vergleich zur tabellarischen Darstellung gemäß Tabelle 3.3 die erwartete Konvergenzbeschleunigung.

Tabelle 3.6: Fehlerverläufe des Einzelschrittverfahrens zum Beispiel 3.27(c) in Abhängigkeit von der Schrittweite h = n1 . n=5 IterationsFehler zahl i |ei |

n = 10 IterationsFehler zahl i |ei |

3,9 · 10−2 3,3 · 10−5 2,5 · 10−8 7,9 · 10−13

0 25 50 86

0 50 150 299

5,2 · 10−2 8,6 · 10−4 2,2 · 10−7 9,8 · 10−13

n = 20 IterationsFehler zahl i |ei | 0 500 1000 1114

n = 50 IterationsFehler zahl i |ei |

7,2 · 10−2 9,6 · 10−7 1,3 · 10−11 9,8 · 10−13

0 2500 5000 6700

1,1 · 10−1 8,4 · 10−6 6,4 · 10−10 9,99 · 10−13

Man hat die Konvergenz der Iterationsverfahren zur Lösung von Ax = b noch weiter beschleunigt. Stichworte sind: Relaxationsverfahren. SOR = Successive Overrelaxation, SUR = Sucessive Underrelaxation u.a. Hier muß auf die Literatur über numerische Mathematik verwiesen werden (z.B. [150], [145], [125]). Übung 3.48: Löse die Aufgabe aus Übung 3.46 mit dem Einzelschrittverfahren.

3.9

Matrix-Funktionen

In Anwendungen, die durch Systeme von linearen Differentialgleichungen beschrieben werden, sind Matrix-Funktionen ein wertvolles Hilfsmittel.50 Hierbei handelt es sich um Abbildungen A  → f ( A) , bei denen im Allgemeinen sowohl die Argumente A als auch die Bilder f ( A) Matrizen sind. Als Einstieg in diesen Problemkreis befassen wir uns zunächst mit Matrix-Potenzen und Matrixpolynomen. 3.9.1

Matrix-Potenzen

Wir beginnen mit sehr einfachen Matrix-Funktionen, nämlich den Matrix- Potenzen Am : Für jede Matrix A ∈ Mat(n; K), K gleich R oder C, und jede natürliche Zahl k gelten die Vereinbarungen Ak := A A · · · A ,

A0 := E ,

A−k := ( A−1 )k , falls A regulär.

k Faktoren 50 s. hierzu auch Burg/Haf/Wille (Band III) [24], Abschn. 3.2.5

(3.286)

3.9 Matrix-Funktionen

283

Damit ist Am für jede ganze Zahl erklärt, wobei wir im Falle m < 0 stets (stillschweigend) voraussetzen, daß A regulär ist. Es folgen die Regeln Am A j = Am+ j , ( AB)m = Am B m

( Am ) j = Am j ,

( Am )−1 = ( A−1 )m ,

(für alle ganzzahligen j, m).

(3.287)

Beispiel 3.28: Die Potenzen von Diagonalmatrizen lassen sich leicht angeben: m D = diag(λ1 , . . . , λn ) ⇒ Dm = diag(λm 1 , . . . , λn )

(m ganzzahlig).

(3.288)

Im Falle m < 0 muß dabei λi  = 0 für alle i vorausgesetzt werden. Nilpotente Matrizen



0 Es gibt Matrizen A, die zu 0 potenziert werden können. Zum Beispiel folgt für A = 0 2 unmittelbar A = 0. Allgemein vereinbart man:

1 0



Definition 3.27: Eine Matrix A ∈ Mat(n; C) heißt nilpotent, wenn es ein m ∈ N gibt mit Am = 0 .

(3.289)

Der folgende Satz zeigt uns, wie nilpotente Matrizen beschaffen sind. Satz 3.61: Für eine Matrix A ∈ Mat(n; C) sind folgende Aussagen gleichbedeutend: (a) A ist nilpotent. (b) A hat als einzigen Eigenwert λ0 = 0. (c) A läßt sich auf eine Dreiecksmatrix mit verschwindender Diagonale transformieren. Beweis: Wir zeigen (a) ⇒ (b) ⇒ (c) ⇒ (a). (a) ⇒ (b): A sei nilpotent. Hätte A einen Eigenwert λ  = 0, so folgte mit einem zugehörigen Eigenvektor x sukzessive: Ax = λx, A2 x = λ2 x, A3 x = λ3 x usw., d.h. Am x = λm x  = 0 für alle m ∈ N, also Am  = 0 für alle m ∈ N, im Widerspruch zur Nilpotenz von A. Also ist 0 einziger Eigenwert von A. (b) ⇒ (c): Es gilt A = T J T −1 mit einer Jordanschen Normalform J. Da λ0 = 0 einziger Eigenwert ist, ist die Diagonale von J gleich Null, d.h. J ist eine Dreiecksmatrix mit verschwindender Diagonale.

284

3 Matrizen

(c) ⇒ (a): Zunächst rechnet man leicht aus, daß für jede n-reihige Dreiecksmatrix N mit verschwindender Diagonale die Gleichung N n = 0 folgt: ⎡ ⎤ r1n 0 r12 r13 . . . ⎢ 0 r23 . . . r2n ⎥ ⎢ ⎥ ⎢ .. ⎥ . n . ⎢ . 0 . ⎥ N=⎢ (3.290) ⎥ ⇒ N = 0. ⎢ ⎥ . .. r ⎣ ⎦ n−1,n 0

0

(Entsprechend im transponierten Fall). Gilt nun A = T N T −1 , so folgt An = T N n T −1 = 0, d.h. A ist nilpotent.  Bemerkung: In Abschn. 3.9.3 werden wir ein Verfahren kennenlernen, das es gestattet, hohe Matrixpotenzen beliebiger Matrizen in einfacher Weise zu berechnen. 3.9.2

Matrixpolynome

Wir übertragen den Polynombegriff aus der Analysis auf Matrizen. Dazu sei kurz folgendes wiederholt: Ein komplexes Polynom vom Grade m ist eine Funktion p : C → C der folgenden Form: p(z) = c0 + c1 z + c2 z 2 + . . . + cm z m ,

mit cm  = 0 , (ci , z ∈ C) .

Die Funktion p0 (z) = 0 heißt Nullpolynom. Ihm wird kein Grad zugeschrieben. Sind c0 , c1 , . . . , cm und z reell, so nennt man p auch ein reelles Polynom. Definition 3.28: (Matrixpolynome) Ist p(z) = c0 + c1 z + c2 z 2 + . . . + cm z m ,

cm  = 0 ,

ein beliebiges (komplexes) Polynom vom Grade m, so entsteht durch Ersetzen von z durch A ∈ Mat(n; C) der Ausdruck p( A) = c0 E + c1 A + c2 A2 + . . . + cm Am .

(3.291)

Hierdurch ist ein Matrixpolynom vom Grade m definiert. Es ordnet jeder Matrix A ∈ Mat(n; C) eine Matrix p( A) ∈ Mat(n; C) zu. Man nennt p(z) das erzeugende Polynom von p( A). Beispiel 3.29: Das Polynom p(z) = 1 − 3z + 4z 2 erzeugt das Matrixpolynom p( A) = E − 3 A + 4 A2 .

3.9 Matrix-Funktionen

Für die folgende Matrix A wird p( A) folgendermaßen berechnet:          4 −1 1 0 4 −1 13 −9 41 A= ⇒ p( A) = −3 +4 = 3 5 0 1 3 5 27 22 99          E

A

285

 −33 . 74

A2

Sind p(z), q(z) die erzeugenden Polynome von p( A), q( A), so entsprechen den zusammengesetzten erzeugenden Polynomen λp(z) + µq(z) =: (λp + µq)(z) ,

(λ, µ ∈ C)

p(z) · q(z) =: ( p · q)(z) ,

bzw.

(3.292)

die Matrix-Polynome λp( A) + µq( A) = (λp + µq)( A)

(3.293)

p( A)q( A) = ( p · q)( A) ,

bzw.

wie man unmittelbar einsieht. Da für zwei komplexe Polynome p(z), q(z) stets p(z)q(z) = q(z) p(z)

(3.294)

gilt, sind die entsprechenden Matrix-Polynome stets vertauschbar. p( A)q( A) = q( A) p( A) für alle

A ∈ Mat(n; C) .

Übung 3.49: Für die Matrix ⎡ 1 1 ⎢ A = ⎣1 ω 1 ω2

⎤ 1 ⎥ ω2 ⎦ , ω

2

ω = ei 3 π

berechne man A2 , A3 und A4 .

Übung 3.50* Man zeige, daß die Matrix A ∈ Mat(n; C) invertierbar ist, wenn sie der Gleichung A2 + 2 A + E = 0 genügt. Wie kann man in diesem Fall A−1 berechnen?

(3.295)

286

3 Matrizen

Übung 3.51: Gegeben ist die Matrix

 α β A= , α, β ∈ R , α = 1 . 0 1 Man zeige, daß für alle n = 0,1,2,3, . . . die folgende Beziehung besteht: ⎡ ⎤ n n βα −1 α ⎢ α−1 ⎥ An = ⎣ ⎦. 0 1

3.9.3

Annullierende Polynome, Satz von Cayley-Hamilton

Quadratische Matrizen besitzen die Eigenschaft, daß bestimmte höhere Potenzen dieser Matrizen sich als Linearkombinationen niedrigerer Potenzen darstellen lassen. Das ist im Grunde nicht verwunderlich, denn Mat(n; C) ist ein linearer Raum über C mit der Dimension n 2 (s. Abschn. 3.1.3, Bemerkung nach Satz 3.1). Folglich sind die aus A ∈ Mat(n; C) 2 gebildeten n 2 + 1 Matrizen A0 = E, A1 = A, A2 , A3 , . . . , An linear abhängig, d.h. es besteht eine Linearkombination 2

α0 E + α1 A + α2 A2 + . . . + αn 2 An = 0 ,

(3.296)

wobei nicht sämtliche Koeffizienten αi verschwinden. Ist αm  = 0 der nicht verschwindende Koeffizient mit höchstem Index m, (es muß offenbar m ≥ 1 sein), so folgt − Am =

α0 α1 αm−1 m−1 E+ A+ ... + A . αm αm αm

(3.297)

In (3.296) ist auf der linken Seite ein Matrix-Polynom dargestellt. Es wird vom Polynom p(z) = n2  αk z k erzeugt. (3.296) liefert p( A) = 0, d.h. es gilt k=0

Folgerung 3.21: Zu jeder Matrix A ∈ Mat(n; C) existiert ein Polynom p mit 1 ≤ Grad p ≤ n 2 , das p( A) = 0 erfüllt. Dies motiviert uns zu folgender Definition: Definition 3.29: Ein Polynom p(z) =

n 

ck z k heißt annullierend für die Matrix A ∈ Mat(n; C), wenn

k=0

p( A) = 0 und Grad p ≥ 1 gilt. Folgerung 3.21 sichert uns zwar die Existenz eines annullierenden Polynoms p für jede Matrix

3.9 Matrix-Funktionen

287

A ∈ Mat(n; C), doch ist die obere Schranke für den Grad von p sehr hoch: Grad p ≤ n 2 . Das folgende Beispiel zeigt, daß der Grad viel kleiner sein kann. Beispiel 3.30: Für die folgende schiefsymmetrische Matrix A berechnen wir die dritte Potenz A3 : ⎡ ⎤ ⎡ ⎤ 0 −c b 0 cr −br 0 −a ⎦ ⇒ A3 = ⎣−cr 0 ar ⎦ mit r 2 = a 2 + b2 + c2 . A=⎣ c −b a 0 br −ar 0 Daraus folgt A3 = −r A, d.h. r A + A3 = 0. Das annullierende Polynom p(z) = r z + z 3 hat also den Grad 3 (kleiner als 32 = 9). In diesem Beispiel ist der Grad des annullierenden Polynoms von A gleich der Zeilenzahl von A, also erheblich kleiner als das Quadrat der Zeilenzahl. Dies läßt sich allgemein erreichen: Unter Einbeziehung der Eigenwerttheorie gelingt es, zu jedem A ∈ Mat(n; C) ein annullierendes Polynom mit Grad ≤ n anzugeben, wie uns der folgende Satz lehrt: Satz 3.62: (Cayley, Hamilton)51 Ist χ A (λ) das charakteristische Polynom einer Matrix A ∈ Mat(n; C), so gilt χ A ( A) = 0 .

(3.298)

Das heißt: Jede komplexe quadratische Matrix genügt ihrer charakteristischen Gleichung.52 Beweis: Die Elemente der zu A − λE adjunkten Matrix adj( A − λE) (s. Abschn. 3.4.7) sind — wenn man vom Vorzeichen absieht — (n − 1)-reihige Unterdeterminanten der Matrix A − λE und somit Polynome vom Grad ≤ n − 1. Folglich ergibt sich nach geeigneter Umformung adj( A − λE) = B n−1 + B n−2 λ + . . . + B 0 λn−1 , mit gewissen (n, n)-Matrizen B j , die von λ unabhängig sind. Beachten wir noch die Beziehung (adj( A − λE))( A − λE) = (det( A − λE)) E   

(3.299)

χ A (λ)

(s. Abschn. 3.4.8, Satz 3.20) und setzen χ A (λ) =:

n 

ck λ k

k=1

51 W.R. Hamilton (1805 – 1865), irischer Mathematiker; A. Cayley (1821 – 1895), englischer Mathematiker. 52 Es sei noch einmal darauf hingewiesen, daß dies auch für reelle Matrizen gilt, die ja Sonderfälle komplexer Matrizen sind.

288

3 Matrizen

an, so erhalten wir (B n−1 + B n−2 λ + . . . + B 0 λn−1 )( A − λE) = (c0 + c1 λ + . . . + cn λn )E . Ausmultiplizieren auf der linken und rechten Seite nebst Koeffizientenvergleich ergibt B n−1 A

= c0 E

B n−2 A−B n−1 .. .. . .

= c1 E .. .

B0 A

−B 1 −B 0

(3.300)

= cn−1 E = cn E .

Nun multiplizieren wir die erste dieser Gleichungen von rechts mit E = A0 , die zweite mit A = A1 , die dritte mit A2 usw., und schließlich die letzte mit An . Anschließend addieren wir die so entstandenen Gleichungen. Dadurch ergibt sich eine neue Gleichung mit der linken Seite B n−1 A + (−B n−1 A + B n−2 A2 ) + (−B n−2 A2 + B n−3 A3 ) + . . . . . . + (−B 1 An−1 + B 0 An ) − B 0 An = 0 und der rechten Seite c0 E + c1 A + c2 A2 + . . . + cn An = χ A ( A) . Da die linke Seite Null ist, ist es auch die rechte, also χ A ( A) = 0, was zu beweisen war.



Anwendungen des Satzes von Cayley-Hamilton53 (a) Auswertung von Matrixpolynomen: Wir denken uns nun ein beliebiges komplexes Polynom m  p(z) = ck z k gegeben, sowie eine beliebige Matrix A ∈ Mat(n; C). Es soll p( A) berechnet k=0

werden! Wir wollen annehmen, daß Grad p ≥ n ist. In diesem Falle kann man mit dem Satz von Cayley-Hamilton erreichen, daß die hohen Potenzen Ak , mit k ≥ n, nicht berechnet werden müssen. Dadurch wird die Berechnung von p( A) erheblich ökonomischer. Dividiert man nämlich p(z) durch das charakteristische Polynom χ A (z) von A, so erhält man (nach Burg/Haf/Wille (Analysis) [27], Abschn. 2.1.6) p(z) r (z) = q(z) + , χ A (z) χ A (z)

53 s. auch Burg/Haf/Wille (Band III) [24], Abschn. 3.2.5

(3.301)

3.9 Matrix-Funktionen

289

also p(z) = q(z)χ A (z) + r (z)

(3.302)

mit gewissen Polynomen q(z) und r (z). r (z) heißt Rest. Für ihn gilt r = 0 oder Grad r < Grad χ A = n. Da sich Summen und Produkte von Polynomen in den davon erzeugten Matrixpolynomen widerspiegeln (vgl. Abschn. 3.9.2, (3.293)), so folgt aus (3.302) die Gleichung p( A) = q( A)χ A ( A) + r ( A) und hieraus, wegen χ A = 0: p( A) = r ( A) .

(3.303)

Wegen Grad r < n ≤ Grad p führt dies zu einer vereinfachten Berechnung von p( A).

Beispiel 3.31: Wir wollen für die Matrix ⎡ ⎤ 1 0 2 A = ⎣0 −1 1⎦ 0 1 0 den Polynomwert p( A) = 2 A8 −3 A5 + A4 + A2 −4E berechnen. Das charakteristische Polynom von A lautet ⎡ ⎤ 1−λ 0 2 −1 − λ 1 ⎦ = −λ3 + 2λ − 1 . χ A (λ) = det ⎣ 0 0 1 −λ Nach Ausführung der Division p(λ) : χ A (λ) gelangt man zu dem Rest r (λ) = 24λ2 − 37λ + 10 . Wegen (3.303) erhalten wir p( A) = r ( A) = 24 A2 − 37 A + 10E . Zur Berechnung von zuziehen: Mit ⎡ 1 0 A = ⎣0 −1 0 1

p( A) brauchen wir also nur die Potenzen von A bis zur Hochzahl 2 heran⎤ 2 1⎦ 0

290

3 Matrizen

ergibt sich dann ⎡

−3 8 5 4 2 2 ⎣0 2 A − 3 A + A + A − 4E = 24 A − 37 A + 10E =       0 p( A) r ( A)

48 95 −61

⎤ −26 −61⎦ . 34

(b) Berechnung der Inversen: Ist A ∈ Mat(n; C) eine reguläre Matrix, so ist det A  = 0. Im charakteristischen Polynom χ A (λ) = c0 + c1 λ + c2 λ2 + . . . + (−1)n λn ist daher der Koeffizient c0 = det A  = 0. Damit kann der Satz von Cayley-Hamilton zur determinantenfreien Berechnung der inversen Matrix A−1 herangezogen werden: Aus 0 = χ A ( A) = c0 E + c1 A + c2 A2 + . . . + (−1)n An ergibt sich zunächst (−1)n An + cn−1 An−1 + . . . + c1 A = −c0 E und dann   1  n n−1 n−2 A − (−1) A + cn−1 A + . . . + c1 E = E. c0 Nach Linksmultiplikation mit A−1 und Vertauschen der Gleichungsseiten folgt

A−1 = −

1 ((−1)n An−1 + cn−1 An−2 + . . . + c1 E) . c0

Beispiel 3.32: Wir betrachten die Matrix ⎡ ⎤ 1 −2 4 A = ⎣0 −1 2⎦ 2 0 3 und wollen A−1 berechnen. Das charakteristische Polynom von A lautet: χ A (λ) = −λ3 + 3λ2 + 9λ − 3 .

(3.304)

3.9 Matrix-Funktionen

291

⎤⎞ ⎡ 0 3 1 0⎦⎠ = ⎣−4 3 −2 9

⎤ 0 2⎦ . 1

Wir beachten: c0 = −3  = 0. Damit liefert Formel (3.304) 1 (− A2 + 3 A + 9E) 3 ⎛⎡ ⎤ ⎡ −9 0 −12 3 −6 1 ⎝⎣ −4 −1 −4 ⎦ + ⎣0 −3 = 3 −8 4 −17 6 0

A−1 =

⎤ ⎡ 12 9 6 ⎦ + ⎣0 9 0

0 9 0

−6 5 4

Übung 3.52: Gegeben sind die Matrizen ⎡ ⎤ 2 0 1 ⎢ ⎥ A = ⎣4 0 2⎦, 0 0 −1



1 ⎢ B = ⎣0 2

−1 3 1

⎤ 2 ⎥ 2⎦ . 2

Man bestätige dafür den Satz von Cayley-Hamilton und berechne A−1 und B −1 .

Übung 3.53* Ist χ A (λ) = (−1)n λn + cn−1 λn−1 + . . . + c0 das charakteristische Polynom der Matrix A ∈ Mat(n; R), dann zeige man mit dem Satz von Cayley-Hamilton die Gültigkeit von adj A = (−1)n−1 An−1 + cn−1 An−2 + . . . + c1 E .

3.9.4 54

Das Minimalpolynom einer Matrix

Es sei A ∈ Mat(n; C) eine gegebene Matrix und ⎤ ⎡ J1 ⎥ ⎢ J2 ⎥ ⎢ J =⎢ ⎥ (J1 , . . . , Jm Jordankästen) . .. ⎦ ⎣ Jm

0

0

ihre Jordansche Normalform (s. Abschn. 3.7.1, Satz 3.57). Zu jedem Eigenwert λi (i = 1, . . . , r ) von A können mehrere Jordankästen J k gehören (deren Diagonalen durch λi besetzt sind). Es sei νi die maximale Zeilenzahl, die bei den Kästen J k vorkommt, die zu λi gehören. Auf diese Weise ist jedem Eigenwert λi ein νi ∈ N zugeordnet (i = 1, . . . r ). Damit wird das Polynom 54 Kann beim ersten Lesen übersprungen werden

292

3 Matrizen

µ A (λ) = (λ − λ1 )ν1 (λ − λ2 )ν2 . . . (λ − λr )νr

(3.305)

gebildet. Es heißt das Minimalpolynom von A. Beispiel 3.33: Es sei ⎡ 5 ⎢ ⎢0 ⎢ ⎢ ⎢ ⎢ ⎢ J =⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎣

⎤ 1 5

0 5 2 0 0

1 2 0

0 1 2

0

2 0

⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ 1⎦ 2

(3.306)

Jordansche Normalform von A ∈ Mat(n; C). Das zugehörige Minimalpolynom lautet damit µ A (λ) = (λ − 5)2 (λ − 2)3 = λ5 − 16λ4 + 97λ3 − 278λ2 + 380λ − 200 . Die Hochzahl 2 in (λ − 5)2 ergibt sich aus der Zeilenzahl 2 des größten Jordankastens zum Eigenwert λ1 = 5, entsprechend die Hochzahl 3 in (λ − 2)3 aus der Zeilenzahl des größten Jordankastens zu λ2 = 2. Zum Vergleich geben wir das charakteristische Polynom von A an: χ A (λ) = (λ − 5)3 (λ − 2)5 . Man liest dies unmittelbar von (3.306) ab. Wir stellen fest, daß das Minimalpolynom µ A das charakteristische Polynom ohne Rest teilt: χ A (λ)/µ A (λ) = (λ − 5)(λ − 2)2 . Das Minimalpolynom hat seinen Namen von folgendem Sachverhalt: Satz 3.63: Das Minimalpolynom µ A von A ∈ Mat(n; C) ist ein annullierendes Polynom kleinsten Grades von A. Es ist bis auf einen Zahlenfaktor  = 0 eindeutig bestimmt. Beweis: Hat A selbst Jordansche Normalform A = J, so sieht man ein, daß µ A ( A) = ( A − λ1 E)ν1 . . . ( A − λr E)νr = 0 gilt (man hat die Faktoren ( A − λi E)νi nur ausführlich hinzuschreiben). Ferner erkennt man, daß jedes annullierende Polynom p von A = J in seiner Linearfaktorzerlegung jeden Faktor

3.9 Matrix-Funktionen

293

(λ − λi )νi von µ A (λ) aufweisen muß. Folglich teilt µ A jedes dieser annullierenden Polynome p ohne Rest, µ A hat damit minimalen Grad und ist, bis auf Zahlenfaktoren, eindeutig bestimmt. Ist A ∈ Mat(n; C) beliebig, so führt man den Nachweis durch Transformation A = T J T −1 auf den bewiesenen Fall zurück.  Der Beweis liefert zusätzlich Folgerung 3.22: Jedes annullierende Polynom p von A wird durch das Minimalpolynom µ A ohne Rest geteilt, Insbesondere teilt µ A das charakteristische Polynom χ A ohne Rest. Die praktische Bedeutung des Minimalpolynoms µ A von A ∈ Mat(n; C) liegt darin, daß es bei Matrizen mit mehrfachen Eigenwerten oft leichter zu berechnen ist als das charakteristische Polynom χ A . Zur Berechnung der Eigenwerte von A kann man dann das Minimalpolynom µ A verwenden, denn seine Nullstellen sind ja gerade die Eigenwerte von A (wie beim charakteristischen Polynom χ A ). Die Ermittlung des Minimalpolynoms µ A ist z.B. mit dem Krylov-Verfahren möglich (s. Abschn. 3.7.2), welches geringfügig abgewandelt wird: Und zwar hat man die Folge z 1 = Az 0 , z 2 = Az 1 , z 3 = Az 2 , . . . usw. nur so weit zu bilden, bis ein z m auftritt, das durch die vorangehenden z 0 , . . . , z m−1 linear kombiniert werden kann. (Dies ist bei jedem Schritt zu überprüfen.) Man hat also eine Darstellung −z m =

m−1 

αk z k ,

αk ∈ C

k=0

ermittelt. Die dabei auftretenden α0 , α1 , . . . , αm−1 und αm = 1 sind die Koeffizienten des Minimalpolynoms µ A also: µ A (λ) =

m 

αk λk .

k=0

(Für den Anfangsvektor z 0  = 0 muß dabei eine Linearkombination aus den Spaltenvektoren von T (mit A = T J T −1 ) existieren, in der alle Koeffizienten = 0 sind. Das kann bei numerischen Rechnungen, etwa mit z 0 = [1, . . . , 1]T , durchaus angenommen werden.) Erläuterungen dazu findet man in [159], S. 157 und [81], S. 76ff. 3.9.5

Folgen und Reihen von Matrizen

Nachdem wir in den vorhergehenden Abschnitten Matrix-Polynome betrachtet haben, wenden wir uns nun allgemeineren Matrix-Funktionen zu, und zwar solchen, die sich mit Hilfe von Po-

294

3 Matrizen

tenzreihen darstellen lassen. Wir stellen zunächst einige Hilfsmittel bereit und beginnen mit Folgen von Matrizen. Matrixfolgen A1 , A2 , . . . , Am , . . . ,

kurz ( Am )m∈N oder ( Am ) ,

mit Am ∈ Mat(n; C), werden analog zu Zahlenfolgen gebildet. Definition 3.30: Die aus den Matrizen A1 = [aik,1 ], A2 = [aik,2 ], . . . , Am = [aik,m ], . . . aus Mat(n; C) bestehende Folge ( Am ) heißt konvergent gegen die Matrix A = [aik ], wenn für die Zahlenfolgen aik,1 , aik,2 , aik,3 , . . . die jeweiligen Grenzwerte55 lim aik,m =: aik

m→∞

existieren, d.h. wenn die Matrixfolge elementweise konvergiert. Schreibweisen: lim Am = A oder:

m→∞

Am → A für m → ∞ .

Eine Matrixfolge heißt divergent, wenn sie nicht elementweise konvergiert. In Analogie zu den Zahlenfolgen gelten für Matrixfolgen die Regeln

lim (α Am + β B m ) = α A + β B ;

(3.307)

lim ( Am B m ) = AB

(3.308)

m→∞

m→∞

für alle α, β ∈ C und alle Am , B m ∈ Mat(n; C), für die lim Am = A und lim B m = B gilt. m→∞

Wir überlassen den einfachen Beweis dem Leser. Beispiel 3.34: Sind die Elemente der Folge ( Am ) durch ⎡ 2 ⎤ 1  0  m m ⎥ ⎢1 0 ⎦ 1 + m1 ⎣m 2m m!

1 m

m+1 m

55 s. Burg/Haf/Wille (Analysis) [27], Abschn. 1.4 bzw., Abschn. 2.5.5

m→∞

3.9 Matrix-Funktionen

295

erklärt, dann ergibt sich der Grenzwert A dieser Folge, indem wir in Am elementweise die Grenzwerte m → ∞ bestimmen: ⎡ ⎤ 1 0 0 lim Am = ⎣0 e 0⎦ =: A . m→∞ 0 0 1 Für Matrizen A, B m (m = 1,2, . . .), C ∈ Mat(n; R) mit lim B m = B ergibt sich aus m→∞

(3.308) lim AB m C = ABC .

(3.309)

m→∞

Bei der Betrachtung von Matrixreihen gehen wir analog zu den Reihen von reellen (bzw. komplexen) Zahlen56 vor: Definition 3.31: Die Matrixreihe

∞ 

A j heißt konvergent gegen die Matrix A, wenn die Folge (Sm )

j=0

der durch Sm =

m 

Aj

j=0

erklärten Partialsummen gegen die Matrix A konvergiert: lim Sm = A =:

m→∞

∞ 

Aj .

j=0

A heißt Grenzwert, Grenzmatrix oder Summe der Reihe.57 Matrixreihe heißt divergent.

Eine nicht konvergente

Für Matrixreihen gelten den Matrixfolgen entsprechende Rechenregeln, etwa die Beziehung ⎞ ⎛ ∞ ∞   (3.310) ( AB j C) = A ⎝ B j ⎠ C = ABC j=0

j=0

, falls A, B j ( j = 0,1, . . .), C aus Mat(n; R) sind und lim

m→∞

m $

Bj

= B ist.

j=0

56 s. Burg/Haf/Wille (Analysis) [27], Abschn. 1.5. ∞ $ 57 A j ist ein doppeldeutiges Symbol. Es bedeutet einerseits die Reihe an sich, (d.h. die Folge ihrer Partialsummen), j=0

andererseits im Falle der Konvergenz die Summe der Reihe. Welche Bedeutung gemeint ist, wird aus dem jeweiligen Kontext klar.

296

3 Matrizen

Beispiel 3.35: Wir bilden aus den Matrizen ⎤ ⎡ j ⎢ Aj = ⎣

(−1) (2 j)!

1 j!

(−1) j+1 j2

(−1) j (2 j+1)!

⎥ ⎦,

j = 1,2, . . .

die Partialsummen

Sm =

m  j=1

⎡ $ m (−1) j ⎢ j=1 (2 j)! Aj = ⎢ m ⎣$ (−1) j+1

m $

j=1

j=1

j2

m $ j=1

1 j!

(−1) j

⎤ ⎥ ⎥. ⎦

(2 j+1)!

Wegen m  (−1) j j=1 m 

(2 j)!

= (cos 1) − 1 ,

(−1) j+1 j2

j=1

m  1 = e −1 , j! j=1

=

π2 12

,

m  j=1

(−1) j = (sin 1) − 1 (2 j + 1)!

konvergiert die Folge (Sm )m∈N und es gilt   (cos 1) − 1 e −1 lim Sm = . 2 π m→∞ (sin 1) − 1 12 3.9.6

Potenzreihen von Matrizen

Komplexe Potenzreihen sind Reihen der Form ∞ 

ak (z − z 0 )k ,

z, z 0 ∈ C , ak ∈ C .

(3.311)

k=0

Ihre Partialsummen sm =

m 

ak (z − z 0 )k ,

m = 1,2, . . .

k=0

sind Polynome. Wir beschränken uns im Folgenden auf die Betrachtung von Potenzreihen, für die z 0 = 0 ist, also auf solche von der Form ∞  k=0

ak z k .

(3.312)

3.9 Matrix-Funktionen

297

Zu jeder Potenzreihe (3.312) gibt es ein r , 0 ≤ r ≤ ∞, den sogenannten Konvergenzradius, der durch r=

lim

1 √ k

k→∞

(3.313)

|ak |

gegeben ist. Ist 0 < r < ∞, so konvergiert die Potenzreihe im Konvergenzkreis {z | |z| < r }; ist r = 0, so konvergiert sie nur im Punkt z = 0 und falls r = ∞ ist, in der ganzen komplexen Zahlenebene C. 58 Wir betrachten nun den Fall, bei dem die komplexe Variable z in (3.312) durch die Matrix A ∈ Mat(n; C) ersetzt ist, also die Matrixpotenzreihe ∞ 

ak Ak ,

ak ∈ C .

(3.314)

k=0

Definition 3.32: Die komplexwertige Funktion f : G → C (G offene Menge in C mit 0 ∈ G) sei in der Form f (z) =

∞ 

ck z k

(3.315)

k=0

darstellbar. Wir erklären die Matrixfunktion f ( A) für die Matrix A ∈ Mat(n; C) durch f ( A) :=

∞ 

ck Ak ,

(3.316)

k=0

falls die Matrixpotenzreihe konvergiert. Wir interessieren uns nun für Bedingungen, unter denen Matrixpotenzreihen konvergieren. Ein für die Anwendungen günstiges Kriterium ist durch den folgenden Satz gegeben: Satz 3.64: Die Potenzreihe ∞ 

ck z k ,

ck , z ∈ C

k=0

besitze den Konvergenzradius r , 0 < r ≤ ∞, konvergiere also im Konvergenzkreis {z | |z| < r }. Liegen sämtliche Eigenwerte λ1 , . . . , λn der Matrix A ∈ Mat(n; C) in 58 Der Nachweis hierfür ist im reellen Fall in Burg/Haf/Wille (Analysis) [27], Satz 5.10, Abschn. 5.2.1 gegeben und im komplexen Fall in Burg/Haf/Wille (Funktionentheorie) [26], Satz 2.34, Abschn. 2.3.3.

298

3 Matrizen

diesem Konvergenzkreis, so konvergiert die Matrixpotenzreihe ∞ 

ck Ak .

k=0

Beweis: • Wir weisen die Behauptung unter der zusätzlichen Voraussetzung nach, daß die Matrix A diagonalisierbar ist, d.h für A existiert eine Darstellung A = T diag[λ1 , . . . , λn ]T −1 .

(3.317)

Hieraus folgt für k ∈ N0 Ak = T diag[λk1 , . . . , λkn ]T −1 ,

(3.318)

(s. Üb. 3.54). Setzen wir (3.318) in die Partialsummen Sm :=

m 

ck Ak

k=0

ein, so erhalten wir nach einfacher Umformung , m  Sm = T diag[ck λk1 , . . . , ck λkn ] T −1 . k=0

Da T und T −1 unabhängig von m sind, können wir hieraus schließen: ,

m m   T −1 . ck λk1 , . . . , ck λkn lim Sm = T lim diag m→∞

m→∞

k=0

k=0

Hier dürfen wir nun alle Grenzwerte elementweise bilden, weil die Reihen ∞ 

ck λkj ,

j = 1, . . . , n

k=0

nach Voraussetzung konvergieren. Damit gilt 

∞ ∞ ∞    k k k ck A = T diag ck λ 1 , . . . , ck λn T −1 . k=0

k=0

(3.319)

k=0

• Für den Fall beliebiger Matrizen A ∈ Mat(n; C) läßt sich der Beweis mit Hilfe der Jordanschen Normalform führen und eine zu (3.319) analoge Formel herleiten. (Auch die nachfolgenden Überlegungen gelten entsprechend für nicht diagonalisierbare Matrizen). 

3.9 Matrix-Funktionen

299

Für Matrizen mit paarweise verschiedenen Eigenwerten eröffnet Formel (3.319) eine inter∞ $ essante Möglichkeit, die Potenzreihe ck Ak zu summieren, d.h. ihren Grenzwert f ( A) zu k=0

errechnen. Nach dieser Formel benötigen wir zur Berechnung von f ( A) offensichtlich nur die ∞ $ Werte der erzeugenden Funktion f (z) = ck z k auf dem Spektrum59 der Matrix A. Wir könk=0

nen daher anstelle von f auch ein Polynom n-ten Grades: p, verwenden, das auf dem Spektrum von A mit f übereinstimmt: f (λ1 ) = p(λ1 ), . . . , f (λn ) = p(λn )

(3.320)

und schließlich festlegen f ( A) := p( A) .

(3.321)

Beispiel 3.36: Das Spektrum der Matrix   6 −1 A= 3 2 ist die Menge {3, 5}. Das Polynom p(λ) =

1 1 (5 e3 −3 e5 ) + λ (e5 − e3 ) 2 2

stimmt auf dieser Menge mit der Funktion f (x) := ex überein: p(3) = e3 , p(5) = e5 . Folglich gilt eA =

1 1 (5 e3 −3 e5 )E + (e5 − e3 ) A . 2 2

Bemerkung: Die Bestimmung von p in (3.320) ist eine einfache Interpolationsaufgabe. Nach der Langrangeschen Methode60 ergibt sich p(λ) =

n  k=1

(λ − λ1 ) . . . (λ − λk−1 )(λ − λk+1 ) . . . (λ − λn ) f (λk ) (λk − λ1 ) . . . (λk − λk−1 )(λk − λk+1 ) . . . (λk − λn )

59 Spektrum einer Matrix = Menge der Eigenwerte der Matrix, s. Abschn. 3.6.1 60 s. z.B. [125], S. 88ff.

(3.322)

300

3 Matrizen

und hieraus f ( A) =

n  ( A − λ1 E) . . . ( A − λk−1 E)( A − λk+1 E) . . . ( A − λn E) k=1

3.9.7

(λk − λ1 ) . . . (λk − λk−1 )(λk − λk+1 ) . . . (λk − λn )

f (λk ) .

(3.323)

Matrix-Exponentialfunktion, Matrix-Sinus- und Matrix-Cosinus-Funktion

(a) Matrix-Exponentialfunktion Wir gehen aus von der Potenzreihen-Darstellung exp z =

∞ k  z , k!

z∈C

(3.324)

k=0

der (komplexen) Exponential-Funktion. Mit Hilfe der in Bd. I , Abschn. 5.2.1 für den reellen Fall verwendeten Argumentation macht man sich klar, daß die Potenzreihe auf der rechten Seite von (3.324) in der gesamten komplexen Ebene konvergiert.61 Weil sämtliche Eigenwerte einer beliebigen Matrix A ∈ Mat(n; C) in C liegen, können wir die Exponentialfunktion exp A dieser Matrix wie folgt erklären: ∞  1 k A . exp A := k!

(3.325)

k=0

Diese Beziehung kann man vereinfachen, wenn die Matrix A diagonalisierbar ist. Denn in diesem Falle kann man die vereinfachte Darstellung (3.318) Ak = T diag[λk1 , . . . , λkn ]T −1 verwenden und in (3.325) einsetzen. Mit ∞  λkp k=0

k!

= exp λ p ,

1≤ p≤n

(3.326)

entsteht dann die wichtige Beziehung exp A = T diag[eλ1 , . . . , eλn ]T −1 . Beispiel 3.37: Die schiefsymmetrische Matrix ⎤ ⎡ 0 −c b 0 −a ⎦ A=⎣ c −b a 0 61 Ausführliche Untersuchungen werden in Burg/Haf/Wille (Funktionentheorie) [26] durchgeführt.

(3.327)

3.9 Matrix-Funktionen

301

hat das charakteristische Polynom χ A (λ) = −λ(d 2 + λ2 ) ,

mit d 2 = a 2 + b2 + c2 .

Wir haben also die paarweise verschiedenen Eigenwerte λ1 = 0 ,

λ2 = i d ,

λ3 = − i d

und können nun exp A berechnen. Das Lagrangesche Interpolations-Polynom (3.322) hat hier die Form p(λ) =

(λ − i d)(λ + i d) 0 (λ − 0)(λ + i d) (λ − 0)(λ − i d) ·e + · ei d + · e− i d . (0 − i d)(0 + i d) (i d − 0)(i d + i d) (− i d − 0)(− i d − i d)

Ausmultiplizieren, Ordnen nach Potenzen von λ und Benutzung der Eulerschen Formel ei ϕ = cos ϕ + i sin ϕ liefert p(λ) = 1 +

sin d 1 − cos d 2 λ , λ+ d d2

woraus sich sofort exp A = E +

1 − cos d 2 sin d A A+ d d2

ergibt.62 Differentiation: In den Anwendungen tritt die Matrix-Exponentialfunktion hauptsächlich in der Form exp( At) auf, wobei die reelle Variable t die Zeit bezeichnet. Wichtig ist dann die Berechnung der Ableitung.63 Satz 3.65: Für jede Matrix A ∈ Mat(n; C) besteht die Beziehung d exp(t A) = A exp(t A) dt

(t ∈ R) .

(3.328)

Beweis: Aus exp(t A) =

∞  (t A)k k=0

k!

=

∞  k=0

tk

Ak k!

(3.329)

62 vgl. hierzu Burg/Haf/Wille (Band III) [24], Abschn. 3.2.5. dA durch 63 Für Matrizen A, deren Elemente aik von t abhängige differenzierbare Funktionen sind, ist die Ableitung dt   dA daik = erklärt. (Elementweise Differentiation!) dt dt

302

3 Matrizen

folgt durch gliedweises Differenzieren ∞



  Ak Ak−1 d kt k−1 t k−1 exp(t A) = =A , dt k! (k − 1)! k=1 ∞ 

=A

k=1

(t A) j j!

j=0



mit k − 1 = j also

= A exp(t A) .

(3.330)

Das gliedweise Differenzieren ist erlaubt. Denn für die Exponentialreihe (3.329) gilt die Abschätzung   ∞  t Ak  |t|k | A|k  |t|k | A|k   , 64 also | exp(t A)| ≤ = e|t|| A| . ≤   k!  k! k! k=0

Die Exponentialreihe (3.329) ist daher für |t| ≤ t0 (t0 > 0 beliebig) gleichmäßig und absolut konvergent. Dasselbe gilt für die gliedweise abgeleitete Reihe, die sich ja nur um den Faktor A in jedem Glied von der ursprünglichen Exponentialreihe unterscheidet. Nach Burg/Haf/Wille (Analysis) [27], Abschn. 5.1.3, Satz 5.8, ist damit die Rechnung (3.330) gestattet, woraus die Behauptung des Satzes folgt.  Beispiel 3.38: Gegeben ist die Matrix   1 2 A= . 4 3 d exp(t A)! dt Zunächst wird exp(t A) bestimmt. Mit den Eigenwerten λ1 = 5t, λ2 = −t von t A findet man wegen (3.322) Zu berechnen ist die Ableitung

p(λ) =

e5t − e−t e5t +5 e−t λ + t 5t λ − 5t −t e + e = λ+ . 5t + t −t − 5t 6t 6

Damit ergibt sich exp( At) =

 1 2 e5t +4 e−t 6 4 e5t −4 e−t

64 Für die Matrixnorm |A| =

4$ i,k

2 e5t −2 e−t 4 e5t +2 e−t



|aik |2 gilt |aik | ≤ | A|, | A + B| ≤ | A| + |B|, | AB| ≤ | A||B|, | Ak | ≤ | A|k , s. Burg/-

Haf/Wille (Analysis) [27], Abschn. 6.1.5, Folg. 6.4. Ferner gilt das Majorantenkriterium (Burg/Haf/Wille (Analysis) [27], Abschn. 5.1.3, Satz 5.6) für Matrix-Reihen entsprechend. Dabei lassen sich auch die Begriffe »gleichmäßige« und »absolute Konvergenz« übertragen.

3.9 Matrix-Funktionen

Durch Differentiation entsteht daraus    1 10 e5t −4 e−t d t 2t exp = 4t 3t dt 6 20 e5t +4 e−t

303

 10 e5t +2 e−t . 20 e5t −2 e−t

(b) Matrix-Sinus-und Matrix-Cosinus-Funktion Analog zur Matrix-Exponentialfunktion erklärt man die Matrix-Sinusfunktion sin A durch sin A :=

∞  (−1)k A2k+1 . (2k + 1)!

(3.331)

k=0

und die Matrix-Cosinusfunktion cos A durch cos A :=

∞  (−1)k k=0

(2k)!

A2k .

(3.332)

für alle A ∈ Mat(n; C). Dies ist nach Satz 3.64 sinnvoll, weil ∞  (−1)k 2k+1 z (2k + 1)! k=0

und

∞  (−1)k k=0

(2k)!

z 2k

in der gesamten komplexen Ebene konvergieren und dort sin z bzw. cos z darstellen. Differentiation: In Analogie zur Matrix-Exponentialfunktion gewinnt man für die trigonometrischen Matrix-Funktionen die folgenden Differentiationsformeln: d sin(t A) = (cos(t A)) A dt (t ∈ R). d cos(t A) = −(sin(t A)) A dt

(3.333) (3.334)

Wie bei der Exponentialfunktion beweist man diese Formeln leicht durch gliedweises Differenzieren der Reihendarstellungen von sin(t A) und cos(t A). Übung 3.54: Man zeige, daß für k = 1,2, . . . folgende Beziehung besteht: (T diag[λ1 , . . . , λn ]T −1 )k = T diag[λk1 , . . . , λkn ]T −1 , wenn λ1 , . . . , λn beliebige komplexe Zahlen sind.

(3.335)

304

3 Matrizen

Übung 3.55: Man überzeuge sich, daß folgende Gleichungen richtig sind: 1) exp(± i A) = cos A ± i sin A ;

(3.336)

2) (cos A)2 + (sin A)2 = E .

(3.337)

Übung 3.56: Man beweise: 1) (exp A)−1 = exp(− A) ;

(3.338)

2) (exp A)T = exp( AT ) ;

(3.339)

3) exp A exp B = exp( A + B) ,

wenn A und B vertauschbar sind.

(3.340)

Übung 3.57: Man verifiziere die Eigenschaft 2) aus Übung 3.55 für die Matrix ⎡ ⎤ 2 1 0 ⎢ ⎥ A = ⎣0 2 0⎦ 1 −1 1

3.10

Drehungen, Spiegelungen, Koordinatentransformationen

Bewegungen von Punkten im Raum Rn bei festgehaltenem Koordinatensystem oder Bewegungen des Koordinatensystems bei festgehaltenen Raumpunkten sind zwei Seiten ein und derselben Medaille.65 Dies, und einiges Grüne drumherum, soll im Folgenden erklärt werden. Wir beginnen mit abstandserhaltenden Abbildungen (Isometrien) in der Ebene und im dreidimensionalen Raum. Es sei daran erinnert, daß dies gerade die Abbildungen der Form F(x) = Ax + c ,

(x, c ∈ Rn )

sind, wobei A eine orthogonale (n, n)-Matrix ist (s. Abschn. 3.5.3, Satz 3.27). Wenn wir von der Verschiebung (=Translation) absehen, die durch das additive Glied c bewirkt wird, so kommt es wesentlich auf den Teil Ax an. Wir werden sehen, daß man ihn im R2 und R3 durch Drehungen oder Spiegelungen deuten kann. Daraus ergibt sich ein enger Zusammenhang mit technischen Problemen. 65 Einstein zum Zugschaffner: »Wann hält der nächste Bahnhof hier am Zug?« (Alles ist relativ!)

3.10 Drehungen, Spiegelungen, Koordinatentransformationen

3.10.1

305

Drehungen und Spiegelungen in der Ebene

Satz 3.66: (a) Jede orthogonale (reelle) (2,2)-Matrix ungleich E hat entweder die Form     c −s c s (3.341) D= oder S = , mit c2 + s 2 = 1. s c s −c (b) D läßt sich in der Form 

cos ϕ D = D(ϕ) := sin ϕ

− sin ϕ cos ϕ



 mit ϕ =

arccos c , falls s ≥ 0 (3.342) − arccos c , falls s < 0

schreiben. Die Abbildung x  → Dx beschreibt damit eine Drehung um den Winkel ϕ um 0, und zwar gegen den Uhrzeigersinn (d.h Dx geht aus x durch diese Drehung hervor). D = D(ϕ) heißt eine Drehmatrix. (c) Die Abbildung x  → Sx beschreibt eine Spiegelung  an derjenigen Geraden durch c+1 0, die in Richtung des Vektors v 1 = verläuft 66 (d.h. der Punkt Sx s geht aus x durch Spiegelung an der genannten Geraden hervor). S heißt eine Spiegelungsmatrix. Beweis:

  c (a) Es sei A eine orthogonale (2, 2)-Matrix. Ist ihr erster Spaltenvektor (mit der Länge s √ 2 2  c + s =  1), so gibt es dazu genau zwei rechtwinklige Vektoren mit Länge 1, nämlich −s s und . In der zweiten Spalte von A muß also einer dieser Vektoren stehen. c −c

(b) Wegen c2 + s 2 = 1 existiert das beschriebene ϕ mit c = cos ϕ, s = sin ϕ. Die Deutung als Drehung wurde schon in Beispiel 2.29, Abschn. 2.4.5 behandelt. (c) Um eine Spiegelungsgerade zu finden (falls es eine gibt), hat man zunächst nach Fixgeraden bzgl. x  → Sx zu suchen, also nach Lösungen der Gleichung Sx = λx. Dies ist ein Eigenwertproblem. Man errechnet daher aus der charakteristischen Gleichung χ S (λ) ≡ det(S−λE) ≡ λ2 −1 = 0 die Eigenwerte λ1 = 1 und λ2 = −1. Zugehörige Eigenvektoren v 1 , v 2 errechnet man aus (S − λi E)v i = 0 (i = 1,2):     c+1 −s v1 = , v2 = (v 1 ⊥ v 2 , v 1  = 0 , v 2  = 0, da S  = E). s c+1 Für ein beliebiges x ∈ R2 mit der Darstellung x = αv 1 + βv 2 (α, β ∈ R) folgt damit Sx = α Sv 1 + β Sv 2 = αv 1 − βv 2 , 66 Eine Gerade durch 0, die in Richtung eines Vektors v  = 0 verläuft, wird kurz mit Rv bezeichnet.

306

3 Matrizen

d.h. Sx geht aus x durch Spiegelung an der Geraden Rv 1 hervor, wie es die Fig. 3.18(a) zeigt. 

Fig. 3.18: Spiegelungen: (a) mit Eigenvektoren v 1 , v 2 von S; (b) zur Konstruktion Sx = x − 2u(u · x)

Folgerung 3.23: Eine orthogonale (2, 2)-Matrix A mit det A = 1 ist eine Drehmatrix, mit det A = −1 eine Spiegelungsmatrix. Zum Beweis ist nur det D = 1 und det S = −1 auszurechnen. Wir haben im Satz 3.66(c) und im zugehörigen Beweis aus einer orthogonalen (2,2)-Matrix A mit det A = −1 die Spiegelungsgerade dazu gewonnen. Oft tritt aber die umgekehrte Frage auf: Wie sieht bei vorgegebener Spiegelungsgeraden (durch 0) die zugehörige Spiegelungsmatrix S aus? Anhand von Fig. 3.18(b) ist dies leicht zu beantworten: Ist die Spiegelungsgerade durch die Hessesche Normalform u · x = 0 mit |u| = 1 gegeben, d.h. steht der Einheitsvektor u rechtwinklig auf der Spiegelungsgeraden, so hat man von einem Punkt x ∈ R2 zweimal den Vektor u(u · x) zu subtrahieren, um zum gespiegelten Punkt y zu kommen, also: y = x − 2u(u · x) = x − 2u(uT x) = x − 2(uuT )x = (E − 2uuT )x ⇒ S = E − 2uuT . Folgerung 3.24: Eine Spiegelung des R2 an der durch u· x = 0 (|u| = 1) gegebenen Geraden geschieht durch die Spiegelungsmatrix S = E − 2uuT .

(3.343)

3.10 Drehungen, Spiegelungen, Koordinatentransformationen

307

Übung 3.58: Zeige: Eine reelle (2,2)-Matrix A ungleich ±E ist genau dann eine Spiegelungsmatrix, wenn sie symmetrisch und orthogonal ist!

3.10.2

Spiegelung im Rn , Q R-Zerlegung

Eine (n, n)-Matrix der Form Su = E − 2uuT

mit |u| = 1 , u ∈ Rn ,

(3.344)

nennt man eine Spiegelungsmatrix oder kurz Spiegelung (analog zum R2 , s. voriger Abschnitt). Für n = 3 beschreibt y = Su x = x − 2uuT x eine Spiegelung im R3 , und zwar an der Ebene, die durch u · x = 0 beschrieben wird. Analog kann man y = Su x(x ∈ Rn ) für n > 3 als »Spiegelung« an der Hyperebene u · x = 0 im Rn auffassen. Satz 3.67: Für jede Spiegelungsmatrix Su gilt S2u = E ,

STu = Su = S−1 u ,

det Su = −1 ,

(3.345)

kurz: Eine Spiegelung Su ist symmetrisch, orthogonal und hat die Determinante −1. Beweis: Die ersten drei Gleichungen sieht der Leser unmittelbar ein. Zu zeigen bleibt det Su = −1. Dazu wählen wir eine orthogonale Matrix C, deren erste Spalte gleich u ist, d.h. C e1 = u. Es folgt e1 = C −1 u = C T u und damit ⎡ ⎤ −1 ⎢ ⎥ 1 ⎢ ⎥ ⎢ ⎥ T T T T T 1 C Su C = E − 2C u(C u) = E − 2e1 e1 = ⎢ ⎥, ⎢ ⎥ . . ⎣ ⎦ .

0

0

1

also det C T Su C = −1. Man erhält also wegen (det C)2 = 1: det Su = det C T det Su det C = det(C T Su C) = −1 .



Für die Numerik wie auch für theoretische Untersuchungen spielt folgende Verwendung der Spiegelungsmatrizen oft eine Schlüsselrolle: Satz 3.68: ( Q R-Zerlegung) (a) Jede reguläre Matrix A kann in ein Produkt A = QR

308

3 Matrizen

zerlegt werden, wobei Q eine orthogonale Matrix ist und R eine reguläre Dreiecksmatrix. (b) Dabei ist Q ein Produkt aus höchstens (n − 1) Spiegelungen. Beweis: Es sei A = [a1 , . . . , an ] und E = [e1 , . . . , en ]. Gilt a1 = |a1 |e1 , so setze man S(1) := E. Gilt a1  = |a1 |e1 , so bilde man mit u=

a1 − |a1 |e1 |a1 − |a1 |e1 |

die Spiegelung S(1) := Su . Für sie berechnet man S(1) a1 = |a1 |e1 und damit   r11 ∗ A(2) := S(1) A = mit r11 = |a1 | . 0 A Den gleichen Schritt führt man nun für A2 aus, d.h. man bildet eine Spiegelung S2 im Rn−1 (oder S2 = Einheitsmatrix), so daß in S2 A2 die erste Spalte nur oben links mit einem r22 > 0 besetzt ist. Alle anderen Elemente dieser Spalte seien Null. Mit ⎡ ⎤   r11 ∗ ...∗ 1 0 r22 ∗ . . . ∗⎦ . folgt A(3) := S(2) A(2) = ⎣ S(2) := 0 S2 A3

0

So fortfahrend gewinnt man schließlich S(n−1) S(n−2) . . . S(2) S(1) A = R ,

(3.346)

wobei R eine rechte Dreiecksmatrix ist. Sie ist regulär, da die linke Seite regulär ist. Mit Q = S(1) S(2) . . . S(n−1) folgt A = Q R und damit die Behauptung des Satzes.

(3.347) 

Bemerkung: Das im Beweis angegebene Verfahren zur Berechnung der S(i) ist konstruktiv. Es heißt Householder67 -Verfahren der Q R-Zerlegung und wird beim Q R-Verfahren der Eigenwertberechnung verwendet (s. [125]). Aufgrund der einfachen Invertierbarkeit orthogonaler Matrizen kann eine Q R-Zerlegung auch zur Lösung linearer Gleichungssysteme genutzt werden. Sei A ∈ Mat(n; R) regulär und A = Q R eine Q R-Zerlegung von A, so folgt Ax = b ⇔ Q Rx = b ⇔ Rx = Q T b . 67 Alston Scott Householder (1904 – 1993), US-amerikanischer Mathematiker.

3.10 Drehungen, Spiegelungen, Koordinatentransformationen

309

Letztere Gleichung kann wiederum analog zur L R-Dreieckszerlegung durch eine Rückwärtselimination gelöst werden. Beispiel 3.39: Wir nutzen eine Q R-Zerlegung zur Lösung des linearen Gleichungssystems Ax = b mit     3 1 5 A= und b = . 4 8 20 Im Rahmen des oben eingeführten Householder-Verfahrens erhalten wir   a1 − |a1 |e1 1 −1 u= =√ , |a1 − |a1 |e1 | 5 2 wodurch sich

⎡3

Q := Su = E − 2uuT = ⎣

5

4 5

4 5

− 35

⎤ ⎦

ergibt. Somit folgt  R = QA =

5 0

 7 , −4

(3.348)

wodurch die Symmetrie der Spiegelungsmatrix die Darstellung A = QR liefert. Die Lösung des Gleichungssystems erhalten wir durch   19 T Rx = Q b = Qb = −8 unter Verwendung der Gleichung (3.348) in der Form x2 =

1 · (−8) = 2 −4

und

x1 =

1 (−7x2 + 19) = 1 . 5

Desweiteren kann aus dem Beweis des Satzes 3.68 auch direkt die folgende Aussage entnommen werden, die für die Lösung der in Abschn. 3.11 beschriebenen linearen Ausgleichsprobleme von Bedeutung ist. Folgerung 3.25: Für jede Matrix A ∈ Mat(m, n; R) mit m ≥ n und Rang A = n existiert eine orthogonale Matrix Q ∈ Mat(m; R) und eine reguläre rechte Dreiecksmatrix R ∈ Mat(n; R)

310

3 Matrizen

derart, daß   R A= Q 0 gilt. Ist A selbst eine orthogonale (n, n)-Matrix, so folgt aus der Q R-Zerlegung A = Q R durch Umstellung Q T A = R, d.h. R ist selbst eine orthogonale Matrix, folglich gilt RT R = E. Dabei ist RT eine linke Dreiecksmatrix. Da R−1 = RT aber eine rechte Dreiecksmatrix sein muß, ist RT rechte und linke Dreiecksmatrix zugleich, also eine Diagonalmatrix, und damit auch R. RT R = E ergibt somit rii2 = 1, also gilt R = diag(r11 , r22 , . . . , rnn ) mit |rii | = 1. Nach Konstruktion im obigen Beweis ist rii > 0 und folglich rii = 1 für alle i = 1,2, . . . , n − 1. Lediglich rnn kann +1 oder −1 sein. Im Falle rnn = 1 ist R = E und im Falle rnn = −1 ist R eine Spiegelung: R = E − 2en eTn . Aus A = Q R und (3.347) erhält man A = S(n−1) S(n−2) . . . S(1) R und damit nach dem eben Gesagten: Folgerung 3.26: Jede orthogonale (n, n)-Matrix kann als Produkt von höchstens n Spiegelungen geschrieben werden. Übung 3.59: Es sei A = Q R eine Q R-Zerlegung wie in Satz 3.68 beschrieben. Ferner seien die Diagonalelemente von R alle positiv. Zeige, daß Q und R durch A eindeutig bestimmt sind. Hinweis: Mache den Ansatz A = Q R = Q R mit einer zweiten Q R-Zerlegung.

3.10.3

Drehungen im dreidimensionalen Raum

Bewegungen, speziell Drehungen, werden in der Technik so oft konstruktiv verwendet, daß eine ökonomische mathematische Beschreibung dafür wünschenswert ist. Dies leistet die Matrizenrechnung, wie wir im Folgenden sehen werden. Definition 3.33: Eine orthogonale (3, 3)-Matrix A  = E mit det A = 1 heißt eine Drehmatrix oder Drehung. Diese Bezeichnung wird dadurch gerechtfertigt, daß wir eine Gerade durch 0 finden können, die bzgl. der Abbildung x → y = Ax (x ∈ R3 ) als Drehachse auftritt. Um diese Achse beschreibt x  → Ax eine Drehung um einen bestimmten Winkel. Zum Beweis dieser Tatsache führen wir zunächst einen Hilfssatz an:

3.10 Drehungen, Spiegelungen, Koordinatentransformationen

311

Hilfssatz 3.3: Jede Drehmatrix A hat den Eigenwert λ1 = 1. Ist v 1 ein zugehöriger Eigenvektor, so besteht die dadurch bestimmte Gerade G 1 = Rv 1 durch 0 aus lauter Fixpunkten: x ∈ G 1 ⇒ Ax = x . Beweis: λ1 , λ2 , λ3 und v 1 , v 2 , v 3 seien die Eigenwerte nebst Eigenvektoren von A (Eigenwerte evtl. mehrfach hingeschrieben, entsprechend ihrer algebraischen Vielfachheit.) Es gilt Av i = λi v i und | Av i | = |v i | (s. Satz 3.26(g), Abschn. 3.5.3), also |λ1 | = |λ2 | = |λ3 | = 1 .

(3.349)

Höchstens zwei Eigenwerte können komplex sein (konjugiert komplex zueinander), also ist ein λi reell. Es sei λ1 reell, somit λ1 = 1 oder −1. Im Falle λ1 = 1 ist der Beweis fertig. Im Falle λ1 = −1 folgt aus det A = λ1 λ2 λ3 68

sofort

1 = −λ2 λ3 .

(3.350)

Wären λ2 , λ3 komplex, also λ3 = λ2 , so folgte λ2 λ3 = λ2 λ2 = |λ2 |2 = 1 im Widerspruch zu (3.350). Sind λ2 , λ3 dagegen reell, so können wegen (3.350) nicht beide λ2 , λ3 gleich −1 sein, also gilt λ2 = 1 oder λ3 = 1, womit der Hilfssatz bewiesen ist.  Damit folgt die Rechtfertigung des Wortes »Drehmatrix« aus folgendem Satz 3.69: (Normalform einer Drehung) Jede Drehmatrix A läßt sich mit einer orthogonalen Matrix C = [c1 , c2 , c3 ] auf folgende Normalform T (ϕ) transformieren: ⎡ ⎤ cos ϕ − sin ϕ 0 cos ϕ 0⎦ = C T AC , T (ϕ) = ⎣ sin ϕ (3.351) 0 0 1 1 mit cos ϕ = (Spur A − 1)  = 1 . (3.352) 2 Dabei ist c3 (|c3 | = 1) ein Eigenvektor zum Eigenwert λ1 = 1. c3 ist bis auf den Faktor −1 eindeutig bestimmt. c1 , c2 werden so gewählt, daß (c1 , c2 , c3 ) ein Orthonormalsystem darstellt. Bemerkung: Die Gerade G = Rv 3 bezeichnen wir als Drehachse zu A. Denn Satz 3.69 macht klar, daß die Abbildung x  → Ax anschaulich eine Raumdrehung um den Winkel ϕ um diese Drehachse bewirkt. 68 Nach Abschn. 3.6.3, (3.158).

312

3 Matrizen

Beweis: (des Satzes 3.69) (c1 , c2 , c3 ) werden, wie im Satz angegeben, gewählt. Jedes x ∈ R3 läßt sich 3  ξk ck darstellen. Damit folgt damit in der Form x = k=1

Ax = A(ξ1 c1 + ξ2 c2 ) + ξ3 c3

(3.353)

(wegen Ac3 = c3 ). Die durch A gegebene Abbildung führt den Unterraum, der durch c1 , c2 aufgespannt wird, in sich über (da A orthogonale Matrix ist). A bewirkt auf diesem Unterraum daher eine lineare abstandserhaltende Abbildung. Dies kann keine Spiegelung sein, weil dann A überhaupt eine Spiegelung wäre, was wegen det A = 1 nicht möglich ist. Also bewirkt A auf dem Unterraum eine Drehung (nach Abschn. 3.9.1), d.h. es gilt mit einem Winkel ϕ: A(ξ1 c1 + ξ2 c2 ) = (ξ1 cos ϕ − ξ2 sin ϕ)c1 + (ξ1 sin ϕ + ξ2 cos ϕ)c2 und folglich mit (3.353) Ax = c1 (ξ1 cos ϕ − ξ2 sin ϕ) + c2 (ξ1 sin ϕ + ξ2 cos ϕ) + ξ3 c3 .

(3.354)

Mit C = [c1 , c2 , c3 ] und ξ = [ξ1 , ξ2 , ξ3 ]T und T (ϕ) wie in (3.351) erhält die Gleichung (3.354) die Gestalt Ax = C T (ϕ)ξ und wegen x = Cξ , also ξ = C T x, schließlich Ax = C T (ϕ)C T x .

(3.355)

Da dies für alle x ∈ R3 erfüllt ist, folgt A = C T (ϕ)C T , womit die behauptete Transformation bewiesen ist. Schließlich gilt Spur A 69 = Spur T (ϕ) = 2 cos ϕ + 1.



Folgerung 3.27: Für jede Drehmatrix A ist die Drehachse gleich Bild( A + AT − (Spur A − 1)E) .

69 Nach Abschn. 3.6.3, Folg. 3.15(c).

(3.356)

3.10 Drehungen, Spiegelungen, Koordinatentransformationen

313

Beweis: Mit Satz 3.69 ist A = C T (ϕ)C T , also A + AT − (Spur A − 1)E = C(T (ϕ) + T (ϕ)T − (Spur T (ϕ) − 1)E)C T ⎛ ⎡ ⎤⎞ 0 0 0 = C ⎝2(1 − cos ϕ) ⎣0 0 0⎦⎠ C T = 2(1 − cos ϕ)[0, 0, c3 ]C T 0 0 1 = [αc3 , β c3 , γ c3 ] mit gewissen α, β, γ ∈ R, die nicht alle 0 sind. Das Bild der Matrix ist also Rc3 .



Beispiel 3.40: Gegeben ist ⎡ ⎤ 0,352 0,360 −0,864 A = ⎣−0,864 0,480 −0,152⎦ . 0,360 0,800 0,480 Man überprüfe, daß A eine Drehmatrix ist. Es folgt cos ϕ = 81,025◦ , sowie ⎡

0,392 A + AT − (Spur A − 1)E = ⎣−0,504 −0,504

−0,504 0,648 0,648

1 . (Spur A − 1) = 0,156 ⇒ ϕ = 2

⎤ −0,504 0,648 ⎦ . 0,648

Die Drehachse wird also durch a = [0,392, −0,504, −0,504]T bestimmt. Bemerkung: Am Beispiel erkennt man, daß Drehachse und Drehwinkel ϕ leicht aus (3.356) und (3.352) zu ermitteln sind. (Der Drehsinn zu ϕ wird allerdings erst aus der Matrix C in (3.351) klar.) Konstruktion axialer Drehungen: Bisher haben wir aus einer vorgegebenen Drehmatrix A die Drehachse und den Drehwinkel ermittelt. Jetzt gehen wir den umgekehrten Weg: Es sei eine Drehachse in Form eines Richtungsvektors q mit |q| = 1 gegeben und ein Drehwinkel ϕ ∈ R. Gesucht ist eine zugehörige Drehmatrix, die die Drehung um die Achse um den Winkel ϕ beschreibt. Sieht man dabei in Richtung von q, so drehen sich die Raumpunkte im Uhrzeigersinn um ϕ. Figur 3.19 zeigt, daß folgendes gilt: −→ − → − → −→ x = 0P = 0R + R S + S P , wobei − → 0R = (q · x)q ,

−→ S P = (q × x) sin ϕ ,

314

3 Matrizen

Fig. 3.19: Axiale Drehung

und − → RS = (x − (q · x)q) cos ϕ . Daraus folgt x = (q · x)q + (x − (q · x)q) cos ϕ + (q × x) sin ϕ = x cos ϕ + (1 − cos ϕ)(q · x)q + (q × x) sin ϕ . Die rechte Seite ist linear in x, folglich kann man sie mit einer Matrix D q (ϕ) so beschreiben: D q (ϕ)x := x cos ϕ + (1 − cos ϕ)(q · x)q + (q × x) sin ϕ .

(3.357)

Zur Abkürzung definieren wir Matrizen A, B durch Ax = q(q · x) = q(q T x) = (qq T )x ⇒ A = qq T und



0 Bx = q × x ⇒ B = ⎣ q3 −q2

−q3 0 q1

⎤ q2 −q1 ⎦ , 0

⎡ ⎤ q1 q = ⎣q2 ⎦ . q3

Damit ergibt sich: Satz 3.70: Die Matrix Dq(ϕ) der axialen Drehung (3.357) hat die Form D q (ϕ) = (cos ϕ)E + (1 − cos ϕ) A + (sin ϕ)B

(3.358)

3.10 Drehungen, Spiegelungen, Koordinatentransformationen



c + (1 − c)q12 = ⎣(1 − c)q2 q1 + sq3 (1 − c)q3 q1 − sq2

(1 − c)q1 q2 − sq3 c + (1 − c)q22 (1 − c)q3 q2 + sq1

315

⎤ (1 − c)q1 q3 + sq2 (1 − c)q2 q3 − sq1 ⎦ , c + (1 − c)q32

wobei c = cos ϕ und s = sin ϕ ist. Dq (ϕ) ist eine Drehmatrix. Beweis: (der letzten Behauptung) Mit A = AT , B = −B T , A2 = A, B 2 = A − E und AB T = 0 folgt aus (3.358) die Gleichung D q (ϕ) D q (ϕ)T = E und damit die Orthogonalität der Matrix. Ferner folgt aus der Definition von D q (ϕ): D q (ϕ + ψ) = D q (ϕ) D q (ψ) , damit D q (ϕ) = ( D q (ϕ/2))2 , also det D q (ϕ) = 1.

(3.359) 

Die Sätze 3.69 und 3.70 ergeben zusammen die Folgerung 3.28: Jede Drehmatrix A kann in der Form A = D q (ϕ) dargestellt werden. Eulersche Drehmatrizen: Nach einer Feststellung, die auf Euler70 zurückgeht, kann man jede Drehmatrix A als Produkt dreier einfacher Drehmatrizen der folgenden Gestalt schreiben: ⎡ ⎤ ⎡ ⎤ 1 0 0 cos β 0 − sin β 1 0 ⎦, E 1 (α) = ⎣0 cos α − sin α ⎦ , E 2 (β) = ⎣ 0 0 sin α cos α sin β 0 cos β ⎡ ⎤ cos γ − sin γ 0 cos γ 0⎦ . E 3 (γ ) = ⎣ sin γ 0 0 1 E 1 (α) beschreibt offenbar eine Drehung um die erste Koordinatenachse, E 2 (β) um die zweite und E 3 (γ ) um die dritte. Es gilt Satz 3.71: (Euler) Die Drehmatrizen sind genau die Matrizen der Form E 1 (α)E 2 (β)E 3 (γ ). Beweis: (I) E 1 (α)E 2 (β)E 3 (γ ) ist zweifellos eine Drehmatrix. α ) A an der Stelle (2,3) (II) Es sei A eine gegebene Drehmatrix. Man wähle 1 α so, daß in E 1 (1 eine Null steht. Das ist möglich. Dann suche man ein 1 γ , so daß in E 1 (1 α ) AE 3 (1 γ ) an der Stelle (2,1) eine Null steht und an der Stelle (2,2) eine positive Zahl. Durch explizites Hinschreiben der genannten Elemente von E 1 (1 α ) AE 3 (1 γ ) sieht man, daß man ein derartiges 70 Leonhard Euler (1707 – 1783), schweizerischer Mathematiker.

316

3 Matrizen

E 3 (1 γ ) finden kann. (Setze dabei E 1 (1 α ) A = B = [bik ].) Damit ist ⎡ ⎤ ∗ a ∗ E 1 (1 α ) AE 3 (1 γ ) = ⎣0 b 0⎦ , b > 0 . ∗ c ∗

(3.360)

Die linke Seite ist eine Drehmatrix, also auch die rechte. Da der zweite Zeilenvektor rechts den Betrag 1 hat, muß b = 1 sein, und weil der zweite Spaltenvektor den Betrag 1 hat, folgt a = c = 0. Damit hat die Matrix rechts die Form E 2 (β) mit geeignetem β. Setzt man nun α = −1 α und γ = −1 γ , so folgt A = E 1 (α)E 2 (β)E 3 (γ ) .



Explizit ausgerechnet ergibt das Produkt die folgende Matrix E 1 (α)E 2 (β)E 3 (γ ) ⎡ cos β cos γ = ⎣− sin α sin β cos γ + cos α sin γ cos α sin β cos γ + sin α sin γ Beispiel 3.41: ⎡ 2 A=⎣ ⎡

− 13

3 2 3

2 3 2 3

− 13

1 ⎢ = ⎣0 0

0 √2 5 √1 5

2 3

− cos β sin γ sin α sin β sin γ + cos α cos γ − cos α sin β sin γ + sin α cos γ

(3.361) ⎤ − sin γ − sin α cos β ⎦ . cos α cos β



− 13 ⎦ = E 1 (α)E 2 (β)E 3 (γ ) 2 3

⎤⎡√ 5 0 3 1 ⎥ ⎢ −√ ⎦ ⎣ 0 5 √2 − 23 5

0 1 0

⎤⎡ 2 √ − 23 ⎥ ⎢ 15 √ 0 √ ⎦⎣ 5 3

5

0

− √1 √2 5

0

5



0

⎥ 0⎦ 1

Bemerkung: In der Schiffs- und Flugmechanik macht man Gebrauch von den Möglichkeiten, die der Satz 3.71 eröffnet. In der Fig. 3.20 ist skizzenhaft dargestellt, wie der momentane Bewegungszustand eines großen Objektes in drei axiale Drehungen zerlegt werden kann, die dem Objekt angepaßt sind. Es ist überraschend, daß man jede Drehmatrix auch als Drehungen um nur zwei Achsen darstellen kann. Es gilt nämlich der folgende Satz, der analog zum vorangehenden Satz 3.71 bewiesen wird: Satz 3.72: Die Drehmatrizen sind genau die Matrizen der Form E 3 (ψ) · E 1 (δ) · E 3 (ϕ) = ⎡ cos ϕ cos ψ − sin ϕ sin ψ cos δ ⎣cos ϕ sin ψ + sin ϕ cos ψ cos δ sin ϕ sin δ

(3.362)

− sin ϕ cos ψ − cos ϕ sin ψ cos δ − sin ϕ sin ψ + cos ϕ cos ψ cos δ cos ϕ sin δ

⎤ sin ψ sin δ − cos ψ sin δ ⎦ . cos δ

3.10 Drehungen, Spiegelungen, Koordinatentransformationen

317

Fig. 3.20: Zerlegung des momentanen Bewegungszustandes

Übung 3.60* Zerlege ⎡ 2 1⎢ A = ⎣1 3 2

2 −2 −1

⎤ 1 ⎥ 2⎦ −2

in

E 1 (α)E 2 (β)E 3 (γ ) .

Übung 3.61: Zerlege die Matrix A aus Beispiel 3.41 in E 3 (ψ)E 1 (δ)E 3 (ϕ).

3.10.4

Spiegelungen und Drehspiegelungen im dreidimensionalen Raum

Wir betrachten die orthogonalen (3,3)-Matrizen A mit det A = −1. Sie lassen sich durch folgenden Satz charakterisieren: Satz 3.73: Für orthogonale (3,3)-Matrizen sind folgende Aussagen äquivalent: (a) det A = −1. (b) − A ist eine Drehmatrix. (c) A ist entweder eine Spiegelung oder ein Produkt aus drei Spiegelungen. (d) A ist entweder eine Spiegelung oder eine Drehspiegelung, d.h. das Produkt aus einer Spiegelung S und einer Drehung D: A = SD .

Bemerkung: In (3.363) kann die Spiegelung S = E − uuT

(|u| = 1 , u ∈ R3 )

(3.363)

318

3 Matrizen

völlig beliebig gewählt werden. Denn für jedes A mit det A = −1 ist S A =: D eine Drehung (wegen det D = det S det A = (−1)(−1) = 1, vgl. Abschn. 3.9.2). Also ist S A = D eine Drehung, und wegen S−1 = S folgt A = S D. Analog kann A mit einer beliebigen Spiegelung S ∈ Mat(3, R) in folgender Form dargestellt werden: A = D S

( D Drehung).

Beweis: (des Satzes 3.73): (d) ⇔ (a) ist durch die Bemerkung erledigt, (b) ⇔ (a) ist wegen det(−A) = 1 sofort klar, und (a) ⇔ (c) folgt aus dem Spiegelungssatz (Folg. 3.24) in Abschn. 3.10.1.  Satz 3.74: Jede Drehung im dreidimensionalen Raum R3 kann als Hintereinanderausführung zweier Spiegelungen dargestellt werden. Beweis: Jede Drehung A kann als Produkt von höchstens drei Spiegelungen Si dargestellt werden. Wegen det(Si ) = −1 und det A = 1 kann A nicht Produkt dreier Spiegelungen sein, also gilt A = S1 S2 mit zwei Spiegelungen S1 , S2 .  Aus Satz 3.73 gewinnen wir schließlich die Folgerung 3.29: Die Menge der orthogonalen (3, 3)-Matrizen zerfällt in die folgenden vier Teilmengen, die zueinander fremd sind: (1) Menge der Drehungen D (det D = 1), (2) der Spiegelungen S = E − uuT (|u| = 1), (3) Menge der Drehspiegelungen S D, (4) {E}. Übung 3.62: Zerlege die Matrix A aus Beispiel 3.40, Abschn. 3.10.3, in zwei Spiegelungen S1 , S2 .

3.10.5

Basiswechsel und Koordinatentransformation

Der in Abschn. 2.4.3 beschriebene Basiswechsel wird hier noch einmal ausführlicher in Matrizenschreibweise dargestellt. Koordinaten bezüglich einer Basis: Es sei (b1 , . . . , bn ) eine Basis des Rn ; aus ihr bilden wir die Basismatrix B = [b1 , . . . , bn ]. Jedes x ∈ Rn 71 läßt sich durch 71 Alles in diesem Abschnitt gilt analog in Kn mit beliebigem Körper K, ja überhaupt in jedem endlichdimensionalen Vektorraum V über K Wir entwickeln alles für den Rn aus Gründen der Übersichtlichkeit und der Praxisnähe.

3.10 Drehungen, Spiegelungen, Koordinatentransformationen

x=

n 

ξi bi

319

(3.364)

i=1

darstellen, wobei die ξi ∈ R eindeutig bestimmt sind (s. Abschn. 2.1.3, Satz 2.3). Mit ⎡ ⎤ ξ1 ⎢ ⎥ x B := ⎣ ... ⎦

wird (3.364) zu

x = Bx B .

(3.365)

ξn

x B heißt der Koordinatenvektor von x bezüglich der Basis (b1 , . . . , bn ) oder kurz bzgl. B. Die Zahlen ξ1 , . . . , ξn heißen die Koordinaten von x bzgl. B. Basiswechsel: Sind (b1 , . . . , bn ) und (b 1 , . . . , b n ) zwei Basen des Rn mit den zugehörigen Basismatrizen B = [b1 , . . . , bn ], B = [b 1 , . . . , b n ], so kann man jedes b k so darstellen: bi =

n 

bk αik ,

i = 1, . . . , n (Basiswechsel).

(3.366)

k=1

Dabei sind die αik ∈ R durch die Basen eindeutig bestimmt (Abschn. 2.1.3, Satz 2.3). Mit der daraus gebildeten Matrix A = [αik ]n,n wird der Basiswechsel (3.366) kurz so beschrieben: B = B A oder

B = B A−1 .

(3.367)

A und A−1 heißen Übergangsmatrizen. Koordinatentransformation: Es sei x ∈ Rn beliebig. Bezüglich der beiden genannten Basen läßt sich x durch x = Bx B

bzw.

x = B x B

(3.368)

beschreiben (s. (3.365)). Wie kann man x B aus x B berechnen und umgekehrt? — Das ist einfach! Gleichsetzen in (3.368) ergibt nämlich Bx B = B x B ⇒ x B = B −1 B x B

(B −1 B = A)

"⇒

x B = Ax B , also

Satz 3.75: Beschreibt B = B A einen Basiswechsel im Rn , so werden die Koordinatenvektoren x B und x B eines Vektors x ∈ Rn folgendermaßen ineinander umgerechnet: x B = Ax B

oder

x B = A−1 x B .

(3.369)

320

3 Matrizen

Man nennt (3.369) eine Koordinatentransformation. Wegen ihrer Wichtigkeit wollen wir dies noch einmal explizit ohne Matrizen beschreiben. Folgerung 3.30: Werden zwei Basen (b1 , . . . , bn ) und (b 1 , . . . , bn ) des Rn durch b k =

n 

bi αik ,

k = 1, . . . , n (αik ∈ R)

(3.370)

i=1

ineinander übergeführt, so ergibt sich für einen beliebigen Vektor x=

n 

ξi bi =

i=1

n 

ξk b k ∈ Rn

(ξi , ξk ∈ R)

(3.371)

k=1

die folgende Koordinatentransformation: ξi =

n 

αik ξk ,

i = 1, . . . , n .

(3.372)

k=1

Bemerkung: (a) Man beachte, daß in (3.370) und (3.372) die gestrichenen Größen auf verschiedenen Seiten der Gleichungen stehen! (b) Um die αik aus (3.370) und/oder die ξk aus den ξk numerisch zu berechnen, kann man den Gaußschen Algorithmus auf (3.371) anwenden und braucht nicht die numerisch ungünstigere Invertierung von A = [αik ] vorzunehmen. Beispiel 3.42: Es seien



1 B = [b1 , b2 , b3 ] = ⎣1 0

1 0 1

⎤ 0 1⎦ , 1



B =



b 1 , b 2 , b 3





1 = ⎣1 1

−1 1 0

⎤ −1 0⎦ 1

zwei Basismatrizen des R3 . Aus B = B A errechnet man die folgende Übergangsmatrix A, und für x = [12,6,30]T gewinnt man aus x = Bx B und x = B x B die folgenden Koordinatenvektoren x B , x B : ⎧ ⎡ ⎤ ⎡ ⎤⎫ ⎡ ⎤ −6 16 ⎬ 1 0 −2 ⎨ B = BA 1⎣ und 1 −2 0 ⎦ , x B = ⎣ 18 ⎦ , x B = ⎣−10⎦ ⇒ A= . ⎭ ⎩ 2 1 2 x B = Ax B 12 14 2 Bezüglich der Basen hat x die Darstellungen x = −6b1 + 18b2 + 12b3 = 16b 1 − 10b 2 + 14b 3 .

3.10 Drehungen, Spiegelungen, Koordinatentransformationen

321

Fig. 3.21: Kristallbasis

Sonderfall: Ein wichtiger Sonderfall entsteht, wenn man einen Wechsel von der kanonischen Basis (e1 , e2 , . . . , en ) zu einer anderen Basis (b 1 , . . . , b n ) vornimmt. In diesem Falle ist A = B . Eine Anwendung dieser Transformationen finden wir z.B. in der Kristallographie: Anstelle der kanonischen Basis (e1 , e2 , e3 ) verwendet man hier Kristallbasen, deren Vektoren a1 , a2 , a3 in natürlicher Weise mit den charakteristischen Kanten einer Elementarzelle zusammenfallen, wie es die Fig. 3.21 zeigt. Veränderung der Matrix einer linearen Abbildung bei Basiswechsel: Es beschreibe y = L x, mit L ∈ Mat(m, n; R) eine lineare Abbildung von Rn in Rm . Ist durch B = (b1 , . . . , bm ) bzw. C = (c1 , . . . cn ) eine neue Basis in Rm bzw. Rn gegeben, so ergibt sich aus den zugehörigen Koordinatendarstellungen y = B y B und x = C x C folgendes: y = Lx ⇒ B y B = LC x C ⇒ y B = (B −1 LC)x C . Durch den Übergang von der kanonischen Basis auf die Basis B in Rm bzw. C in Rn geht die Matrix L der linearen Abbildung also in die Matrix B −1 LC über. Übung 3.63: Es seien zwei Basen gegeben: ⎡ 1 0 ⎢ B=⎣ 0 2 −2 1

B = [b1 , b2 , b3 ], B = [b 1 , b 2 , b 3 ] und ein Vektor x ∈ R3 wie folgt ⎤ 2 ⎥ 1⎦ , 0



1 ⎢ B = ⎣0 0

0 2 1

⎤ 0 ⎥ 1⎦ , 3

⎡ ⎤ 6 ⎢ ⎥ x = ⎣6⎦ . 6

Gib die Koordinaten x B , x B von x an, berechne A aus B = B A und verifiziere x B = Ax B .

3.10.6

Transformation bei kartesischen Koordinaten

Ist (b1 , . . . , bn ) eine Orthonormalbasis des Rn , d.h.  1 falls i = k, bi · bk = δik = 0 falls i  = k,

322

3 Matrizen

und ist x=

n 

ξi bi

(ξi = x · bi , i = 1, . . . , n)72

i=1

eine Darstellung von x ∈ Rn bzgl. dieser Basis, so spricht man von kartesischen Koordinaten bzgl. dieser Basis. Die Basismatrix B = [b1 , . . . , bn ] ist in diesem Fall eine orthogonale Matrix. Der Basiswechsel zu einer zweiten Orthonormalbasis B = [b 1 , . . . , b n ] ist sehr einfach: Für die Übergangsmatrix A = [αik ]n,n gilt nämlich B = B A ⇒ A = B T B ⇒ A orthogonal, denn das Produkt zweier orthogonaler Matrizen ist wieder orthogonal. Aus den Koordinatendarstellungen x = Bx B = B x B ,

sowie

A = BT B

(s. voriger Abschnitt) erhält man dann leicht die Koordinatentransformation bei kartesischen Koordinaten: x B = Ax B

und

x B = AT x B .

(3.373)

Dreidimensionaler Fall: Für den wichtigsten dreidimensionalen Fall, der ja in der Technik eine Hauptrolle spielt, wird die Transformation kartesischer Koordinaten ausführlich und matrixfrei angegeben: Es seien (b1 , b2 , b3 ) und (b 1 , b 2 , b 3 ) zwei Orthonormalbasen des R3 . Ein beliebiger Vektor x ∈ R3 hat bezüglich dieser Basen die Darstellungen x = ξ1 b1 + ξ2 b2 + ξ3 b3 , x = ξ1 b 1 + ξ2 b 2 + ξ3 b 3 ,

mit ξi = bi · x , mit ξi = bi · x .

Die Basen hängen durch folgende Gleichungen zusammen:  b 1 = b1 α11 + b2 α21 + b3 α31  b1 = b 1 α11 + b 2 α21 + b 3 α31  b 2 = b1 α12 + b2 α22 + b3 α32  b2 = b 1 α12 + b 2 α22 + b 3 α32  b 3 = b1 α13 + b2 α23 + b3 α33  b3 = b 1 α13 + b 2 α23 + b 3 α33 mit αik = bi · b k . 72 vgl. Abschn. 1.2.7, (1.102)

(3.374)

(3.375)

3.10 Drehungen, Spiegelungen, Koordinatentransformationen

Damit ergeben sich die kartesischen Koordinatentransformationen wie folgt:  ξ1 = α11 ξ1 + α21 ξ2 + α31 ξ3  ξ1 = α11 ξ1 + α12 ξ2 + α13 ξ3  ξ2 = α12 ξ1 + α22 ξ2 + α32 ξ3  ξ2 = α21 ξ1 + α22 ξ2 + α23 ξ3 .  ξ3 = α13 ξ1 + α23 ξ2 + α33 ξ3  ξ3 = α31 ξ1 + α32 ξ2 + α33 ξ3

323

(3.376)

Übung 3.64: Führe die beschriebene Koordinatentransformation für die folgenden Basen B, B und den angegebenen Vektor x durch: ⎡ ⎡ ⎤ ⎡ ⎤ ⎤ 0,6 0 −0,8 −108 45 44 25 1 ⎢ ⎢ ⎥ ⎢ ⎥ ⎥ B= 1 0 ⎦ , x = ⎣ 50 ⎦ . 60 −108⎦ , B = ⎣ 0 ⎣ −19 125 0,8 0 0,6 60 100 45 100

3.10.7

Affine Abbildungen und affine Koordinatentransformationen

Affine Abbildungen: Eine Abbildung F : Rn → Rm

73

der Form

F(x) := Ax + c mit x ∈ Rn , c ∈ Rm , A ∈ Mat(m, n; R)

(3.377)

heißt eine affine Abbildung von Rn in Rm . Ax ist dabei der lineare Anteil und c der Translationsanteil. Für F gilt: Aus x − y = α(u − v) ,

x, y, u, v ∈ Rn , α ∈ R ,

folgt stets F(x) − F( y) = α(F(u) − F(v)) ,

(3.378)

wie man leicht nachrechnet. (Umgekehrt kann man zeigen, daß eine Abbildung F : Rn → Rm mit der Eigenschaft (3.378) stets die Gestalt (3.377) hat, also affin ist.) Bemerkung: Affine Abbildungen führen lineare Mannigfaltigkeiten a + U (U Unterraum von Rn ) wieder in lineare Mannigfaltigkeiten über. Aus diesem Grunde nennt man lineare Mannigfaltigkeiten in Rn auch affine Unterräume von Rn . Affine Koordinatensysteme: Es ist gelegentlich zweckmäßig, nicht nur die Koordinatenrichtungen zu wechseln, sondern auch den Ursprung des Koordinatensystems. In Fig. 3.22 z.B. ist neben dem üblichen kartesischen Koordinatensystem ein weiteres (schiefwinkliges) Koordinatensystem skizziert, mit einer ξ1 - und einer ξ2 -Achse. Der Schnittpunkt dieser Achsen — also der Ursprung des ξ1 -ξ2 -Systems — wird durch den Ortsvektor p gekennzeichnet und die Achsenrichtungen durch b1 und b2 . Es liegt daher nahe, das ξ1 -ξ2 -Systems durch das Tripel  p; b1 , b2 '

zu symbolisieren.

73 Wegen der Praxisnähe wird wieder im Rn gearbeitet. Doch gilt alles hier Gesagte analog in beliebig endlichdimensionalen Vektorräumen über einem Körper K.

324

3 Matrizen

Fig. 3.22: Affine Koordinaten

Es entsteht nun die Frage, welche neuen Koordinaten ξ1 , ξ2 ein Punkt x ∈ R2 mit den kartesischen Koordinaten x1 , x2 besitzt, ja, wie sich die Koordinaten allgemein bei Übergängen dieser Art umrechnen. Dazu definieren wir folgendes: Definition 3.34: Unter einem (affinen) Koordinatensystem im Rn verstehen wir ein (n + 1)-Tupel  p; b1 , b2 , . . . , bn '

(3.379)

von Vektoren p, b1 , . . . , bn aus Rn , wobei die b1 , . . . , bn linear unabhängig sind. B = [b1 , . . . , bn ] ist die zugehörige Basismatrix. Jedes x ∈ Rn läßt sich bezüglich eines solchen Koordinatensystems in der Form x = p+

n 

ξi bi

(3.380)

i=1

schreiben, wobei die ξi ∈ R durch x und das Koordinatensystem (3.379) eindeutig bestimmt sind. Denn sie lassen sich ja aus dem Gleichungssystem n 

ξi bi = x − p

i=1

gewinnen (z.B. mit dem Gaußschen Algorithmus). Wir nennen (3.380) die (affine) Koordinatendarstellung von x bezüglich des Systems (3.379) und fassen die ξ1 , . . . , ξn überdies zum Koordinatenvektor ξ zusammen: ξ = [ξ1 , . . . , ξn ]T .

(3.381)

Gelegentlich, wenn es um scharfe Unterscheidungen geht, wird ξ auch durch x B, p bezeichnet (dabei ist speziell x B,0 = x B ).

3.10 Drehungen, Spiegelungen, Koordinatentransformationen

325

Affine Koordinaten: Für den Übergang von einem affinen Koordinatensystem zu einem anderen gilt folgender Satz: Satz 3.76: Geht man von einem affinen Koordinatensystem  p; b1 , . . . , bn ' zu einem anderen  p ; b 1 , . . . , b n ' über, wobei die Basisvektoren durch b k

=

n 

bi αik

(k = 1, . . . , n) ,

A := [αik ]n,n ,

(3.382)

i=1

zusammenhängen, so gilt für die Koordinatendarstellungen x = p+

n 

ξi bi = p +

i=1

n 

ξk b k

(3.383)

k=1

eines Punktes x ∈ Rn die Umrechnungsformel ξ = A−1 ξ + c mit

c = B

−1

( p − p ) , B = [b 1 , . . . , b n ] .

(3.384)

Beweis: Mit den Matrizen B = [b1 , . . . , bn ], B und A wird (3.382) zu B = B A und (3.383) zu x = p + Bξ = p + B ξ . Die rechte Gleichung liefert nach Umstellung B ξ = Bξ + ( p − p ) ⇒ ξ = B

−1

Bξ + B

−1

( p − p ) .

Mit A = B −1 B , also A−1 = B −1 B, folgt (3.384).



Damit sind wir für Koordinatentransformation gerüstet. 3.10.8

Hauptachsentransformation von Quadriken

In der Ebene mit einem kartesischen x-y-Koordinatensystem werden Kegelschnitte — wie Ellipsen, Hyperbeln, Parabeln — durch quadratische Gleichungen der Form ax 2 + by 2 + cx y + sx + t y + u = 0

(3.385)

beschrieben. Zum Beispiel stellt x 2 + 2y 2 − 1 = 0 eine Ellipse dar, x 2 − 3y 2 − 4 = 0 eine Hyperbel und 4x 2 − y = 0 eine Parabel. Einfache Beispiele dieser Art sind dem Leser sicher bekannt. Es entsteht allgemein die Frage: Welche Figur wird durch die Gl. (3.385) beschrieben, wenn die Koeffizienten a, b, c, s, t, u willkürlich vorgegeben sind? Soviel sei vorweggenommen: Hat

326

3 Matrizen

  x (3.385) überhaupt Lösungen , so beschreibt die Gleichung auch einen Kegelschnitt. Aber y welchen? — Die Antwort hierauf findet der Leser in Abschn. 3.10.9. Doch zunächst gehen wir das Problem der quadratischen Gleichungen in mehreren Variablen systematisch und allgemein an. Definition 3.35: Ein Polynom zweiten Grades in den n Variablen x1 , . . . , xn ∈ R ist eine Funktion der Form h(x) :=

n  i,k=1

aik xi xk + 2

n 

bk x k + c

74

(aik , bk , c ∈ R)

(3.386)

k=1

mit x = [x1 , . . . , xn ]T und der symmetrischen Matrix A = [aik ]n,n  = 0. Eine quadratische Gleichung in n reellen Variablen ist dann durch h(x) = 0 gegeben. Die Menge aller Punkte x ∈ Rn mit h(x) = 0 heißt eine Hyperfläche zweiten Grades oder kurz eine Quadrik. Es ist unser Ziel, Polynome zweiten Grades in einfache Normalformen zu überführen, denen man (geometrische) Eigenschaften leicht ansieht. Zunächst schreiben wir das Polynom h(x) aus (3.386) in matrizieller Gestalt: ⎡ ⎤  b1 A = [aik ]n,n  = 0 , ⎢ .. ⎥ T T h(x) = x Ax + 2b x + c mit (3.387) b=⎣.⎦. A symmetrisch, bn Eine Isometrie x = V y + p mit det V = 1 (V orthogonale Matrix) heißt eine Bewegung. Führt man eine beliebige Bewegung x = V y + p aus, so errechnet man leicht, daß h(x) in folgende Form übergeht 5 6T yT (V T AV ) y + 2 V T ( A p + b) y + ( pT A p + 2bT p + c) .   

(3.388)

h( p)

Damit beweisen wir folgenden Satz, der uns einfache Normalformen für Polynome zweiten Grades beschert. Satz 3.77: (Normalformen von Polynomen zweiten Grades) Jedes Polynom zweiten Grades der Form (3.387) läßt sich durch eine geeignete Bewegung x = V ξ + p (mit einer orthogonalen (n, n)-Matrix V , det V = 1, und ξ = [ξ1 , . . . , ξn ]T ∈ Rn ) in eine der folgenden Formen transformieren: 74 Der Faktor 2 vor der zweiten Summe ist ein reiner »Schönheitsfaktor«. Er erspart uns später gelegentlich den Faktor 1/2.

3.10 Drehungen, Spiegelungen, Koordinatentransformationen

(a) λ1 ξ12 + λ2 ξ22 + . . . + λr ξr2 + β , (b)

λ1 ξ12

+ λ2 ξ22

+ . . . + λr ξr2

327

mit r = Rang A

+ 2γ ξn , mit γ > 0, r = Rang A < n (λi , β, γ ∈ R).

Der folgende Beweis ist konstruktiv, d.h. er gibt dem Leser eine (einfache) Methode an die Hand, wie die Transformation auf Normalform durchzuführen ist. Beweis: (des Satzes 3.77) Man berechnet zunächst die Eigenwerte λ1 , . . . , λn von A (jeden so oft hingeschrieben, wie seine algebraische Vielfachheit angibt) und dazu ein Orthonormalsystem zugehöriger Eigenvektoren x 1 , . . . , x n . Mit der Matrix X = [x 1 , . . . , x n ] gilt dann (nach Abschn. 3.6.5, Satz 3.49): X T AX = D := diag(λ1 , . . . , λn ) .

(3.389)

Folglich verwandelt sich h(x) in (3.387) durch die Transformation x = X y in yT D y + 2d T y + c =

n 

λk yk2 + 2

k=1

n 

dk yk + c

k=1

⎡ ⎤ ⎡ ⎤ d1 y1 ⎢ .. ⎥ ⎢ .. ⎥ mit y = ⎣ . ⎦ , d = ⎣ . ⎦ = X T b . yn

(3.390)

dn

1. Fall: Rang A = n, d.h. A ist regulär und alle Eigenwerte λk sind ungleich Null. Addiert und subtrahiert man zu dem Polynom in y (in (3.390) links) die »quadratischen Ergänzungen« dk2 /λk , so geht das Polynom in folgende Gestalt über: n 

 λk

yk +

k=1

mit c0 = c −

dk λk

n  d2

2 + c0 = ( y + q)T D( y + q) + c0 

d1 dn und q = ,..., λk λ1 λn k

k=1

(3.391)

T .

Die Translation ξ = y + q mit ξ = [ξ1 , . . . , ξn ]T , (also ξk = yk + dk /λk ) führt (3.391) in + c0 über und damit in die Normalform (a) des Satzes. Aus x = X y und y = ξ − q erhält man durch Einsetzen ξ T Dξ

x = Xξ + p

(mit p = −X q).

Dabei sei det X = 1, was sich durch richtige Wahl der x i stets erreichen läßt. Diese Bewegung verwandelt also h(x) in die Normalform (a). 2. Fall: Rang A = r < n. D.h.: Es sind genau r der λk ungleich Null. Wir können uns die λk so

328

3 Matrizen

numeriert denken, daß λ1  = 0 , λ2  = 0 , . . . , λr  = 0 ,

und λk = 0 , falls r < k ≤ n,

ist. Das Polynom in y (in (3.390)) erhält damit folgende Gestalt (wobei wir wieder quadratische Ergänzungen verwenden): r 

 λk

yk +

k=1

dk λk

2 +2

n 

dk yk + c0 = ( y + q 0 )T D( y + q 0 ) + 2d T0 y + c0 ,

(3.392)

k=r +1

mit ⎡ ⎢ ⎢ ⎢ ⎢ D=⎢ ⎢ ⎢ ⎢ ⎣

λ1

..

⎤ ⎤ ⎡ d1 /λ1 0 ⎢ .. ⎥ ⎢ .. ⎥ ⎥ ⎢ . ⎥ ⎢ . ⎥ ⎥ ⎥ ⎥ ⎢ ⎢ ⎥ r  ⎥ ⎢dr /λr ⎥ ⎢ ⎥ dk2 ⎥ , d 0 = ⎢ 0 ⎥ , c0 = c − ⎥ , q0 = ⎢ . ⎢ 0 ⎥ ⎢dr +1 ⎥ ⎥ λk ⎥ ⎥ ⎢ ⎢ ⎥ k=1 ⎢ .. ⎥ ⎢ . ⎥ ⎥ ⎣ . ⎦ ⎣ .. ⎦ ⎦ 0 dn 0

0

. λr

0

0

..

.





Fall 2a: d 0 = 0. In diesem Fall führt ξ = y + q T0 das Polynom (3.392) in ξ T Dξ + c0 über, also in die Normalform (a). Das Ausgangspolynom (3.386) wird also insgesamt durch x = Xξ + p mit p = −X q 0 in die Normalform (a) gebracht, wobei wir wieder det X = 1 annehmen können. Fall 2b: d 0  = 0. Man konstruiert eine orthogonale Matrix   } r Zeilen E 0 U= , die U d 0 = γ en (γ > 0) erfüllt. } n − r Zeilen 0 W Hierzu hat man nur e1 , . . . , er , (d 0 /|d 0 |) zu einem Orthonormalsystem in Rn zu ergänzen und diese Vektoren zeilenweise zur Matrix U zusammenzufassen, wobei (d 0 /|d 0 |)T die letzte Zeile besetzt. Man erhält U d 0 = γ en mit γ = |d 0 | > 0. Durch y = U T v − q 0 (also y + q 0 = Uv) verwandelt sich (3.392) damit in v T U DU T v + 2(U d 0 )T v − 2d T0 q 0 + c0 = v T Dv + 2γ eTn v + c0 ,

(3.393)

denn es ist U DU T = D und d T0 q 0 = 0. Schließlich führen wir eine letzte Translation aus, um c0 wegzubekommen, d.h. wir setzen v = ξ + s mit s = [0, . . . , 0, −c0 /γ ]T und erhalten aus (3.393) wegen sT Ds = 0: ξ T Dξ + 2γ eTn ξ .

(3.394)

Dies ist mit ξ = [ξ1 , . . . , ξn ]T die Normalform (b) des Satzes. Die bei dieser Transformation ausgeführte Bewegung ergibt sich aus x = X y, y = U T v − q 0 und v = ξ + s. Schrittweises Einsetzen liefert die Bewegung x = V ξ + p mit V = XU T und p = X(U T s − q 0 ). Dabei sei det V = 1, was sich durch einen Vorzeichenwechsel in der ersten Spalte von U gegebenenfalls erzwingen läßt. — Damit ist der Normalformensatz für Quadriken bewiesen. 

3.10 Drehungen, Spiegelungen, Koordinatentransformationen

329

Hauptachsentransformation: Die Bewegung x = V ξ + p, die nach Satz 3.77 das Polynom h(x) = x T Ax + 2bT x + c in eine der Normalformen (a) oder (b) überführt, kann als affine Koordinatentransformation gedeutet werden (s. Abschn. 3.9.7). Mit V = [v 1 , v 2 , . . . , v n ] wird durch x = V ξ + p der Übergang vom kanonischen Koordinatensystem 0; e1 , . . . , en ' auf das Koordinatensystem  p; v 1 , . . . , v n ' beschrieben, d.h. x hat in diesem System die Koordinatendarstellung x=

n 

ξk v k + p ,

mit ξ = [ξ1 , . . . , ξn ]T .

(3.395)

k=1

Man kann sich also die durch h(x) = 0 beschriebene Quadrik (Punktmenge) als unverrückbar fest vorstellen. Jedoch wird ein neues Koordinatensystem mit ξ1 -, ξ2 -, . . . , ξn -Achsen und dem Koordinatenursprung p eingeführt. Man nennt die ξi -Achsen (also die Geraden p + Rvi ) die Hauptachsen der Quadrik. Ist die Koeffizientenmatrix A von h(x) regulär, so bezeichnet man p als den Mittelpunkt der n  Quadrik. (In diesem Falle ist λi ξi2 + β = 0 die transformierte Gleichung. Man sieht, daß i=1

der Übergang von ξi zu −ξi nichts ändert: Die Gleichung bleibt erfüllt. Dies rechtfertigt den Ausdruck Mittelpunkt p, da p ja der »Ursprung« des ξi -Systems ist.) Folgerung 3.31: Ist A regulär und symmetrisch, so kann der Mittelpunkt p der Quadrik x T Ax+2bT x+ c = 0 aus Ap + b = 0

(⇔ p = − A−1 b)

(3.396)

berechnet werden. Ist X eine orthogonale Transformationsmatrix mit X T AX = diag(λ1 , . . . , λn ), so erhält man p (einfacher) aus  p = −X diag

1 1 ,..., λ1 λn

 XTb .

(3.397)

Beweis: (3.396) folgt aus (3.388) durch Nullsetzen des mittleren Gliedes. (3.397) ergibt sich aus dem Beweis des Satzes 3.77, 1. Fall.  Folgerung 3.32: Hat die symmetrische (n, n)-Matrix A n paarweise verschiedene Eigenwerte, so sind die Hauptachsen der Quadrik x T Ax + 2bT x + c = 0 eindeutig bestimmt. Dies folgt aus der Konstruktion der Hauptachsentransformation im Beweis von Satz 3.77.

330

3 Matrizen

Beispiel 3.43: Welche Figur stellt die Gleichung 7,2x 2 + 4,8x y + 5,8y 2 − 52,8x − 67,6y + 185,8 = 0 im R2 dar? — Die Gleichung verwandeln wir in die Matrizenschreibweise: Mit       7,2 2,4 −26,4 x A= , b= , x= folgt x T Ax + 2bT x + 185,8 = 0. (3.398) 2,4 5,8 −33,8 y Man errechnet die Eigenwerte λ1 = 4 und λ2 = 9 von A, sowie zugehörige Eigenvektoren     0,6 0,8 , x2 = . x1 = −0,8 0,6 Mit

 X = [x 1 , x 2 ] =

und



1/4 p = −X 0

0,6 −0,8



0,8 0,6

   0 2 T X b= 1/9 5

führt die Transformation x = Xξ + p die Gleichung (3.398) über in 4ξ12 + 9ξ22 − 36 = 0 ⇔

ξ12 ξ22 + = 1. 32 22

(3.399)

Das konstruierte ξ1 -ξ2 -System ist in Fig. 3.23 eingezeichnet. In diesem System stellt (3.399) eine Ellipse mit den Achsenlängen a = 3 und b = 2 dar (wie aus der elementaren Geometrie bekannt).

Übung 3.65: Führe für die folgende Gleichung eine Hauptachsentransformation durch: 4,06x 2 + 3,36x y + 5,04y 2 + 47,32x + 36,96y + 130,06 = 0 .

3.10.9

Kegelschnitte

Im R2 , dessen Koordinaten wir mit ξ , η bezeichnen wollen, beschreiben die in Tab. 3.7 angegebenen quadratischen Gleichungen alle Typen von Kegelschnitten, d.h. alle Figuren, die beim Schneiden eines Kreiskegels oder Zylinders75 mit einer Ebene entstehen können, s. Fig. 3.24. 75 Der Zylinder kann als Grenzfall eines Kegels mit »Spitze im Unendlichen« angesehen werden.

3.10 Drehungen, Spiegelungen, Koordinatentransformationen

331

Fig. 3.23: Hauptachsentransformation einer Ellipse

Dabei seien a > 0,

b > 0,

c = 0 .   ξ Daß die Mengen der Punkte , die die angegebenen Gleichungen erfüllen, gerade die rechts η angegebenen Gestalten haben, entnehmen wir der Elementargeometrie (Schulmathematik). Auch die leere Menge ∅ wollen wir zu den Kegelschnitten rechnen, da sie z.B. als »Schnittmenge« eines Zylinders mit einer zur Zylinderachse parallelen Ebene auftreten kann.

Fig. 3.24: Kegelschnitte

Wir erkennen an Hand der in Tab. 3.7 gezeigten Kegelschnittgleichungen, daß sie alle Mög-

332

3 Matrizen

Tabelle 3.7: Kegelschnitte ξ 2 /a 2 + η2 /b2 ξ 2 /a 2 − η2 /b2 ξ 2 /a 2 + η2 /b2 ξ 2 /a 2 − η2 /b2 ξ 2 = a2 ξ2 = 0 ξ 2 + cη = 0 ξ 2 /a 2 + η2 /b2

=1 =1 =0 =0

= −1 oder ξ 2 = −a 2

Ellipse mit Halbachsen a, b Hyperbel mit Halbachsen a, b Punkt zwei sich schneidende Geraden zwei parallele Geraden eine Gerade (sog. »Doppelgerade«) Parabel leere Menge

lichkeiten ausschöpfen, die bei den Normalformen (a) λ1 ξ 2 + λ2 η2 + β = 0

und

(b) λ1 ξ 2 + 2γ η = 0

vorkommen können. Damit folgt aus Satz 3.77: Satz 3.78:

  x Die Menge der Punkte ∈ R2 , die einer quadratischen Gleichung y a11 x 2 + 2a12 x y + a22 y 2 + 2b1 x + 2b2 y + c = 0

(3.400)

genügt, ist stets ein Kegelschnitt. Sehr schön! — Doch welchen Kegelschnitt stellt (3.400) dar? Um das herauszukriegen, kann man beispielsweise die Hauptachsentransformation à la Satz 3.77 durchführen. Man gewinnt gleichzeitig die Hauptachsen, d.h. das ξ -η-System, in dem die Kegelschnittgleichungen Normalform haben (vgl. Fig. 3.25). Ellipse, Hyperbel, Punkt und sich schneidende Geraden sind Kegelschnitte mit Mittelpunkt p. Ihn gewinnt man leicht aus A p = −b mit A = [aik ]2,2 , b = [b1 , b2 ]T . Will man jedoch nur wissen, um welchen Typ von Kegelschnitt es sich handelt, ohne seine Lage explizit auszurechnen, so kann man viel einfacher vorgehen: Man ordnet die Koeffizienten aus (3.400) in der folgenden Determinante D und ihrer Unterdeterminante D1 = det A an und berechnet zusätzlich eine Größe D2 :   a11 a12 b1      a11 a12    , D2 := (a11 + a22 )c − b2 − b2 . (3.401)   D := a12 a22 b2  , D1 :=  1 2 a12 a22   b1 b 2 c  Bildet man diese Größen speziell für die Normalformen in Tab. 3.7, so ergibt sich die Fallunterscheidung in Tab. 3.8. Dies gilt aber auch bei allgemeinen quadratischen Gleichung (3.399), denn sie gehen ja durch Bewegung aus den Normalformen hervor (wie auch umgekehrt). Dabei ändern sich die Vorzeichen von D und D1 nicht (wie man aus (3.388) im vorigen Abschnitt erkennen kann). Gilt aber

3.10 Drehungen, Spiegelungen, Koordinatentransformationen

333

Fig. 3.25: Hyperbel und Parabel in allgemeiner Lage, mit Hauptachsen.

D = D1 = 0, so ändert sich bei Bewegung das Vorzeichen von D2 nicht (wieder aus (3.388) zu schließen). Somit folgt der Satz 3.79: (Bestimmung von Kegelschnitt-Typen) Ist eine quadratische Gleichung (3.400) gegeben, so kann man mit D, D1 , D2 aus (3.401) und dem Schema in Tab. 3.8 den Typ des Kegelschnittes bestimmen. Übung 3.66* Welche Kegelschnitte werden durch die folgenden Gleichungen beschrieben: (a) 6x 2 + 8x y + 10y 2 + 4x + 16y + 4 = 0, (b) 15x 2 + 48x y + 6y 2 + 6x + 6y + 6 = 0, (c) 9x 2 − 12x y + 4y 2 + 2x + 6y + 1 = 0, (d) x 2 − 4x y + 4y 2 + x − 2y − 41 = 0?

3.10.10 Flächen zweiten Grades: Ellipsoide, Hyperboloide, Paraboloide Eine Fläche zweiten Grades im R3 ist durch eine quadratische Gleichung x T Ax + 2bT x + c = 0

mit A = [aik ]3,3  = 0 symmetrisch, b, x ∈ R3

(3.402)

gegeben, genauer: Die Menge der x ∈ R3 , die diese Gleichung erfüllt, ist eine Fläche zweiten Grades (oder Quadrik im R3 ).

334

3 Matrizen

Tabelle 3.8: Zur Bestimmung von Kegelschnittypen 1. Fall

D = 0

D1 < 0

Hyperbel

D1 = 0

Parabel

D1 > 0

D1 · a11 < 0

Ellipse

D1 · a11 > 0

leere Menge

2. Fall

D1 < 0

D=0

D1 = 0

2 sich schneidende Geraden D2 < 0

2 parallele Geraden

D2 = 0

eine Gerade

D2 > 0

leere Menge

D1 > 0

ein Punkt

Nach Satz 3.77 in Abschn. 3.10.8 läßt sich die Gleichung durch eine geeignete Bewegung x = V ξ + p (V orthogonal, det V = 1) auf eine der folgenden Normalformen transformieren: (a) λ1 ξ12 + λ2 ξ22 + λ3 ξ32 + β = 0 , (b)

λ1 ξ12

+ λ2 ξ22

+ 2γ ξ3 = 0 (γ > 0) .

(3.403) (3.404) (3.405)

Hierbei ist in jeder Gleichung wenigstens ein λi  = 0. Je nachdem, welche der Zahlen λi und β positiv, negativ oder 0 sind, ergibt sich ein anderer Typ von Fläche. Wir geben im Folgenden eine vollständige Klassifizierung der Normalformen — und damit der Flächen zweiter Ordnung — an. Dabei wird überdies der zugehörige Rang von A und der Rang von   A b B := T b c notiert. Da eine Bewegung x = V ξ + p für das Polynom x T Ax + 2bT x + c in der Form

3.10 Drehungen, Spiegelungen, Koordinatentransformationen

Fig. 3.26: Einige Flächen zweiten Grades.

335

336

3 Matrizen

 W T BW ,

W=

mit

V 0T

 p , 1

 T   ξ ξ T in der Form W BW beschrieben werden kann, ändern sich Rang A und Rang B bei ei1 1 ner solchen Transformation nicht. Wir können sie daher aus den Normalformen ablesen und den einzelnen Flächentypen zuordnen (s. Tab. 3.9). Durch Rang A und Rang B läßt sich schon eine Vorentscheidung über den Flächentyp fällen. (Dabei wird in Tab. 3.9 xi statt ξi geschrieben.) — Technischen Anwendungen: direkt geometrisch (Kühltürme usw.), indirekt (Trägheitsellipsoide u.ä.). Tabelle 3.9: Klassifizierung der Flächen zweiten Grades Flächentyp Ellipsoid einschaliges Hyperboloid zweischaliges Hyperboloid elliptisches Paraboloid hyperbolisches Paraboloid (Sattel) elliptischer Kegel ein Punkt elliptischer Zylinder hyperbolischer Zylinder parabolischer Zylinder zwei sich schneidende Ebenen eine Gerade

Formel (a > 0, b > 0, c > 0)

Rang B

Rang A

4

3

4

3

4

3

4

2

4

2

3

3

3

3

=1

3

2

=1

3

2

3

1

2

2

2

2

x32 x12 x22 + + =1 a2 b2 c2 x32 x22 x12 + 2 − 2 =1 a2 b c 2 x2 x22 x1 − 2 − 2 + 32 = 1 a b c x12

x22 + = x3 a2 b2 2 2 x1 x − 22 = x3 a2 b x2 + 22 2 a b x22 x12 + a2 b2 2 x22 x1 + a2 b2 x22 x12 − a2 b2

x2 − 32 = 0 c x32 + 2 =0 c

x12 = αx3

(α = 0)

x12

x12 x22 − =0 a2 b2 2 2 x1 x + 22 = 0 a2 b

zwei parallele Ebenen

x12 = a 2

2

1

eine Ebene

x12 = 0

1

1

leere Menge ∅

sonst

3.11 Lineare Ausgleichsprobleme

337

Übung 3.67: Welche Fläche zweiter Ordnung beschreibt die Gleichung 2x12 − 2x1 x2 + 2x22 + 4x1 x3 + 5x32 − 4x2 x3 − 2x1 + 2x3 − 4 = 0 ?

Die Figuren 3.26 (a) bis (h) vermitteln ein Anschauung für die meisten dieser Flächen.

3.11

Lineare Ausgleichsprobleme

In Abschnitt 2.2.5 haben wir uns kurz mit rechteckigen linearen Gleichungssystemen befaßt, also mit Gleichungssystemen der Form Ax = b ,

(3.406)

wobei A ∈ Mat(m, n; R) und b ∈ Rm ist. Wir konnten die eindeutige Lösbarkeit von (3.406) genau dann nachweisen, wenn das Rangkriterium (s. Satz 2.10) erfüllt ist. Außerdem haben wir einen Zusammenhang zum Gaußschen Algorithmus aufgezeigt. Wie sieht es nun aber mit unlösbaren linearen Gleichungssystemen aus, etwa solchen mit nichtinvertierbaren Matrizen A, oder solchen, bei denen die Anzahl m der Gleichungen größer ist als die Anzahl n der Unbekannten? Sind diese für die Belange der Praxis überhaupt relevant? Dem ist so, denn: Aufgrund von Meßfehlern treten in den Anwendungen nur selten exakt lösbare lineare Gleichungssysteme auf. Es stellt sich dann die Aufgabe, lineare Ausgleichsprobleme zu lösen. Innerhalb dieses Abschnitts können wir nur einen kleinen Einblick in die Theorie und Numerik linearer Ausgleichsprobleme geben. Für eine detaillierte und zugleich umfassende Darstellung sei auf die Bücher von Björck [9] und Lawson/Hanson [88] verwiesen.

3.11.1

Die Methode der kleinsten Fehlerquadrate

Die Grundidee zur Lösung von linearen Ausgleichsproblemen findet sich schon bei C.F. Gauß, bekannt als »Methode der kleinsten Fehlerquadrate«. Wir wollen den Kerngedanken anhand eines einfachen Spezialfalls aufzeigen. Hierzu gehen wir von je m Meßwerten z k und yk (k = 1, . . . , m) aus und tragen sie in ein (y, z)-Koordinatensystem ein. Dabei liege näherungsweise ein linearer Zusammenhang vor (s. Fig. 3.27). Wir haben dann eine Gerade z = αy, die sogenannte Ausgleichsgerade zu bestimmen, die die gemessenen Werte möglichst gut annähert. Es ist also eine »optimale« Steigung 1 α für eine solche Gerade zu ermitteln. Aufgrund der Meßwerte z k und yk gelangen wir zu einem linearen Gleichungssystem αyk = z k ,

k = 1, . . . , m ,

(3.407)

das sich mit y := [y1 , . . . , ym ]T

und

z := [z 1 , . . . , z m ]T

(3.408)

338

3 Matrizen

in der Form αy = z

(3.409)

schreiben läßt. C.F. Gauß zeigte, daß man bei Beobachtungsgrößen, die mit zufälligen Fehlern behaftet sind, zu einer optimalen unverfälschten Schätzung für die unbekannte Größe (hier α) gelangt, wenn man das Fehlerquadrat m 

(αyk − z k )2

(3.410)

k=1

minimiert. Bezeichnet | . | die euklidische Norm und ( , ) das Skalarprodukt zweier Vektoren, das diese Norm induziert (vgl. Abschn. 2.1.2 bzw. 2.4.9), so läßt sich (3.410) auch in der Form |α y − z|2 = (α y − z, α y − z) darstellen. Diesen Ausdruck wollen wir minimieren. Mit f (α) := (α y − z, α y − z) = α 2 | y|2 − 2α( y, z) + |z|2 folgt aus f (α) = 2α| y|2 − 2( y, z) = 0 der Extremalwert 1 α = ( y, z)/| y|2 . Da wir y  = 0 2 voraussetzen dürfen, liegt wegen f (1 α ) = 2| y| > 0 mit 1 α das gesuchte Minimum vor.

Natürlich ist die Aufgabenstellung nicht notwendigerweise auf die Berechnung einer Ausgleichsgeraden beschränkt. Setzt man allgemein ein Polynom p ∈ Πn−1 vom Grad kleiner oder gleich n − 1 an, so erhalten wir mit der Darstellung p(ω) = α0 + α1 ω + . . . + αn−1 ωn−1

(3.411)

analog zu (3.407) unter Verwendung der Werte ω = yk , k = 1, . . . , m, das lineare Gleichungssystem n−1 

αi yki = z k ,

k = 1, . . . , m ,

(3.412)

i=0

welches sich unter Verwendung von α := [α0 , . . . , αn−1 ]T und (3.408) in der Form Aα = z

(3.413)

mit ⎡

1 ⎢. A = ⎣ ..

y1 .. .

1

ym

y12

...

ym2

...

⎤ y1n−1 .. ⎥ ∈ Mat(m, n; R) . ⎦ ymn−1

(3.414)

3.11 Lineare Ausgleichsprobleme

schreiben läßt. Die Gleichung (3.409) gliedert sich in diesen Rahmen mit ⎡ ⎤ y1 ⎢ .. ⎥ A = ⎣ . ⎦ ∈ Mat(m,1; R) und α = α1 ∈ R

339

(3.415)

ym ein. Im Fall n < m liegen in der Polynomdarstellung (3.411) weniger Freiheitsgrade vor, als Bedingungen in (3.412) auftreten. In Anlehnung an (3.410) werden wir daher wiederum die Summe der Fehlerquadrate | Aα − z| = 2

,n−1 m   k=1

-2 αi yki

− zk

(3.416)

i=0

minimieren. Nach diesen einführenden Überlegungen wenden wir uns nun dem allgemeinen Fall eines linearen Ausgleichsproblems zu. Zu gegebener Matrix A ∈ Mat(m, n; R) x ∈ Rn so zu bestimmen, daß der Ausdruck und rechter Seite b ∈ Rm ist ein 1 | Ax − b|

(3.417)

minimiert wird.76 Definition 3.36: Es sei A ∈ Mat(m, n; R), m > n, und b ∈ Rm . Dann nennt man 1 x ∈ Rn eine Ausgleichslösung von Ax = b, wenn | A1 x − b| ≤ | Ax − b|

für alle x ∈ Rn

gilt. Wir sagen 7 x ∈ Rn ist Optimallösung von Ax = b, wenn 7 x eine Ausgleichslösung ist, deren euklidische Norm minimal ist. Die Vorgehensweise zur Lösung derartiger Ausgleichsprobleme läßt sich anhand des eingangs betrachteten Falls der Ausgleichsgeraden (s. Fig. 3.27) motivieren. Aufgrund des Zusammenhangs (1 α y, 1 α y − z) = 1 α 2 | y|2 − 1 α ( y, z) =

( y, z)2 2 ( y, z) | y| − ( y, z) = 0 | y|4 | y|2

ergibt sich die in Figur 3.28 dargestellte Orthogonalität der Vektoren 1 α y und 1 α y − z. 76 Die Minimierung von | Ax − b| und | Ax − b|2 sind äquivalent, weshalb der zu minimierende Ausdruck je nach Bedarf gewählt werden kann.

340

3 Matrizen

z z αy − z

y

αy y Fig. 3.27: Ausgleichsgerade

Fig. 3.28: Projektion von z.

Der Vektor 1 α y ∈ Rm ergibt sich somit durch die orthogonale Projektion der rechten Seite z auf das Bild der in (3.415) aufgeführten Matrix ⎡ ⎤ y1 ⎢ ⎥ A = ⎣ ... ⎦ ∈ Mat(m,1; R) . ym Aufgrund dieser Vorüberlegungen am Spezialfall, dürfte das folgende Resultat nicht mehr besonders überraschen: Satz 3.80: Es sei A ∈ Mat(m, n; R) und b ∈ Rm . Dann ist 1 x genau dann eine Ausgleichslösung von Ax = b, wenn A1 x die Orthogonalprojektion von b auf Bild A ist. Beweis: Da Bild A ⊂ Rm einen Untervektorraum darstellt, läßt sich nach Folgerung 2.3 aus Abschn. 2.1.4 jedes b ∈ Rm eindeutig als Summe b = b + b

mit

b ∈ Bild A und

b ∈ (Bild A)⊥

(3.418)

darstellen. Für beliebiges x ∈ Rn erhalten wir wegen Ax − b ∈ Bild A die Orthogonalität der Vektoren Ax − b

und

b = b − b .

Nun wenden wir den Satz des Pythagoras im Rm an (s. Folg. 2.2, Abschn. 2.1.4): | Ax − b|2 = | Ax − b − (b − b )|2 = | Ax − b |2 + |b − b |2 für alle x ∈ Rn . Damit ist direkt zu erkennen, daß | A1 x − b| genau dann minimal ist, wenn A1 x = b gilt und somit wegen (3.418) der Vektor A1 x die Orthogonalprojektion von b auf Bild A darstellt. 

3.11 Lineare Ausgleichsprobleme

341

Bevor wir mit dem Zusammenhang zwischen dem Ausgleichsproblem und den Normalgleichungen einen ganz wesentlichen Aspekt betrachten, beweisen wir zunächst folgenden Hilfssatz: Hilfssatz 3.4: Sei A ∈ Mat(m, n; R), m, n ∈ N, dann gilt (Bild A)⊥ = Kern AT . Beweis: Sei v ∈ (Bild A)⊥ , dann erhalten wir für alle x ∈ Rn die Gleichung 0 = ( Ax, v) = ( Ax)T v = x T AT v . Mit der Wahl von x = AT v ergibt sich somit 0 = ( AT v)T AT v = | AT v|2 , womit AT v = 0 und daher v ∈ Kern AT folgt. Hiermit gilt (Bild A)⊥ ⊂ Kern AT . Sei w ∈ Kern AT , so ergibt sich für alle x ∈ Rn T ( Ax, w) = x T A w = 0 , =0

so daß w ∈ (Bild A)⊥ und demzufolge Kern AT ⊂ (Bild A)⊥ 

gilt. Zusammenfassend erhalten wir die Behauptung. Satz 3.81: Sei A ∈ Mat(m, n; R) und b ∈ Rm . Dann ist 1 x ∈ Rn genau dann Ausgleichslösung von Ax = b, wenn 1 x die sogenannte Normalgleichung AT Ax = AT b löst.

Beweis: Unter Verwendung der in (3.418) dargestellten Zerlegung der rechten Seite b erhalten wir mit Hilfssatz 3.4 die Eigenschaft b − b = b ∈ (Bild A)⊥ = Kern AT .

(3.419)

342

3 Matrizen

Sei 1 x Ausgleichslösung, dann ergibt sich mit Satz 3.80 die Gleichung AT A1 x − AT b = AT ( A1 x − b) = AT (b − b)

(3.419)

=

0,

womit 1 x eine Lösung der Normalgleichungen repräsentiert. Sei 1 x Lösung der Normalgleichung, so folgt b − A1 x ∈ Kern AT = (Bild A)⊥ . Mit b = A1 x + (b − A1 x)     ∈Bild A

∈(Bild A)⊥

ergibt sich A1 x = b aus der Eindeutigkeit der Summendarstellung, wodurch 1 x nach Satz 3.80 die gesuchte Ausgleichslösung darstellt.  Die nachgewiesene Äquivalenz des linearen Ausgleichsproblems zu der Normalgleichung werden wir zum Lösbarkeitsnachweis nutzen, wobei wir uns zunächst auf den Maximalrangfall (Rang A = n) konzentrieren. Satz 3.82: Sei A ∈ Mat(m, n; R) mit Rang A = n < m, dann besitzt das lineare Ausgleichsproblem für jedes b ∈ Rm genau eine Lösung. Beweis: Mit Rang A = n folgt aus A y = 0 stets y = 0. Für die Matrix AT A ∈ Mat(n; R) erhalten wir folglich für y ∈ Kern AT A mit 0 = ( AT A y, y) = ( A y, A y) = | A y|2    =0

die Aussage A y = 0 und somit aufgrund der Rangeigenschaft y = 0. Unter Verwendung von Satz 3.6, Abschn. 3.3.1, liegt mit AT A eine reguläre Matrix vor, so daß die Normalgleichung AT Ax = AT b für jedes b ∈ Rm eindeutig lösbar ist. Satz 3.81 liefert hierdurch die Behauptung.  Bevor wir zum Nachweis der Lösbarkeit des linearen Ausgleichsproblems im Fall einer rangdefizitären Matrix A (Rang A < n) kommen, werden wir einen hierfür nützlichen Hilfssatz beweisen. Hilfssatz 3.5: Sei A ∈ Mat(m, n; R), n ≤ m, dann gilt Bild AT A = Bild AT .

3.11 Lineare Ausgleichsprobleme

343

Beweis: Für jeden Untervektorraum V ⊂ Rk gilt (V ⊥ )⊥ = V , wodurch wir aus Hilfssatz 3.4 sowohl Bild AT A = Bild( AT A)T = (Kern AT A)⊥

(3.420)

als auch Bild AT = ((Bild AT )⊥ )⊥ = (Kern A)⊥

(3.421)

erhalten. Zu zeigen bleibt somit Kern AT A = Kern A. Sei v ∈ Kern A, dann gilt AT Av = AT 0 = 0 , womit sich v ∈ Kern AT A und daher Kern A ⊂ Kern AT A ergibt. Für w ∈ Kern AT A folgt | Av|2 = ( Av, Av) = v T ATAv = 0 . =0

Demzufolge gilt Av = 0, so daß v ∈ Kern A die Eigenschaft Kern AT A ⊂ Kern A liefert. Zusammenfassend erhalten wir Kern AT A = Kern A und folglich aus den Gleichungen (3.420) und (3.421) die Behauptung.  Satz 3.83: Sei A ∈ Mat(m, n; R) mit Rang A < n < m, dann stellt die Lösungsmenge M ⊂ Rn des linearen Ausgleichsproblems für jedes b ∈ Rm eine (n − Rang A)-dimensionale Mannigfaltigkeit dar. Beweis: Mit Satz 3.81 können wir uns auf die Untersuchung der Lösungsmenge der Normalgleichung beschränken. Wegen AT b ∈ Bild AT

Hilfs. 3.5 = Bild AT A

existiert zu jedem b ∈ Rm ein x ∈ Rn mit AT Ax = AT b .

(3.422)

Für den Nullraum der Matrix AT A ∈ Mat(n; R) erhalten wir aufgrund der im Beweis zum Hilfssatz 3.5 nachgewiesenen Eigenschaft Kern AT A = Kern A die Raumdimension dim Kern AT A = dim Kern A = n − dim Bild A = n − Rang A . Jede Lösung des Ausgleichsproblems 1 x ∈ M läßt sich daher in der Form 1 x = x + x

344

3 Matrizen

mit einer speziellen Lösung x von (3.422) und einem Vektor x ∈ Kern( AT A) darstellen, so daß M einen (n − Rang A)-dimensionalen affinen Untervektorraum des Rn darstellt.  Zusammenfassend können wir folgende zentrale Aussagen festhalten: • Das lineare Ausgleichsproblem ist äquivalent zu der zugehörigen Normalgleichung. • Das lineare Ausgleichsproblem ist stets lösbar, wobei die Lösung genau dann eindeutig ist, wenn die Spaltenvektoren der Matrix A linear unabhängig sind.

Beispiel 3.44: Zu den gegebenen Meßwerten k

1

2

3

4

5

yk zk

1,1 1,0

1,2 0,8

1,4 0,8

1,7 0,9

1,9 1,0

wird ein Polynom p ∈ Π2 , p(y) = α0 + α1 y + α2 y 2 , gesucht, das die Summe der Fehlerquadrate gemäß (3.416) minimiert. Entsprechend (3.413) und (3.414) erhalten wir das lineare Ausgleichsproblem | Aα − z| = min mit ⎡

1

⎢ ⎢1 ⎢ ⎢ ⎢ A = ⎢1 ⎢ ⎢ ⎢1 ⎣ 1

y1 y2 y3 y4 y5

y12





1

1,1

1,21



⎥ ⎢ ⎥ ⎢ ⎥ y22 ⎥ ⎥ ⎢1 1,2 1,44⎥ ⎥ ⎢ ⎥ ⎥ ⎢ ⎥ y32 ⎥ = ⎢1 1,4 1,96⎥ ∈ Mat(5,3; R) ⎥ ⎢ ⎥ ⎥ ⎢ ⎥ ⎢1 1,7 2.89⎥ y42 ⎥ ⎦ ⎣ ⎦ 2 1 1,9 3,61 y5

und z = (z 1 , z 2 , z 3 , z 4 , z 5 )T = (1,0, 0,8 0,8, 0,9, 1,0)T ∈ R5 sowie α = (α0 , α1 , α2 )T ∈ R3 . Wir betrachten die Normalgleichung ⎡ ⎤ ⎡ ⎤ 5 7,3 11,11 4,5 ⎣ 7,3 11,11 17,575 ⎦ α= ⎣ 6,61 ⎦ . 11,11 17,575 28,7635 10,141 

 = AT A





 AT z



3.11 Lineare Ausgleichsprobleme

345

Unter Verwendung des Gaußschen Algorithmus (s. Abschn. 2.2.1) ergibt sich die Lösung ⎡ ⎤ 3,3233 α = ( AT A)−1 AT z = ⎣−3,4643⎦ , 1,1857 so daß das gesuchte Polynom p(ω) = 3,3233 − 3,4643ω + 1,1857ω2 lautet. Eine Darstellung des Lösungspolynoms und der vorliegenden Meßwerte kann der Fig. 3.29 entnommen werden. 1.15 Messdaten Polynomgraph 1.1

1.05

1

0.95

0.9

0.85

0.8

0.75

1

1.1

1.2

1.3

1.4

1.5

1.6

1.7

1.8

1.9

2

Fig. 3.29: Meßwerte und Ausgleichspolynom zum Beispiel 3.44.

Übung 3.68* (a) Berechne die Ausgleichsparabel p(ω) = α0 + α1 ω + α2 ω2 zu den gegebenen Meßwerten z k an den Meßpunkten ω = yk gemäß k

1

2

3

yk zk

-1 -1,5

0 0,5

1 3,5

4 2 . 9,5

(b) Bestimme die Dimension des Lösungsraums und eine allgemeine Darstellung der Lösung zum linearen Ausgleichsproblem | Aα − z| = min

346

3 Matrizen

mit ⎡

3 ⎢ A = ⎣12 9

⎤ 2 ⎥ 8⎦ 6



und

⎤ 78 ⎢ ⎥ z=⎣0⎦ . 0

In den folgenden beiden Unterabschnitten werden wir uns mit der Lösung respektive der Lösungsdarstellung bei linearen Ausgleichsproblemen befassen. Hierbei wenden wir uns zunächst der Normalgleichung zu, die im Maximalrangfall sowohl mit der Cholesky-Zerlegung als auch mit dem Verfahren der konjugierten Gradienten gelöst werden kann. Der anschließende Paragraph widmet sich der Lösung des Minimierungsproblems mittels einer QR-Zerlegung beziehungsweise der Nutzung einer Pseudoinversen. 3.11.2

Lösung der Normalgleichung

In diesem Abschnitt betrachten wir ausschließlich den Fall eines linearen Ausgleichsproblems, dessen Matrix maximalen Rang besitzt, das heißt alle Spaltenvektoren linear unabhängig sind. In dieser Situation ergibt sich wegen Ax = 0 ⇔ x = 0 neben der offensichtlichen Symmetrie der Matrix AT A ∈ Mat(n; R) wegen ( AT Ax, x) = ( Ax, Ax) = | Ax|2 ≥ 0 ∀x ∈ Rn und ( AT Ax, x) = | Ax|2 = 0 ⇔ Ax = 0 ⇔ x = 0 auch dessen positive Definitheit. Somit ergibt sich ein möglicher Lösungsansatz auf der Grundlage einer Cholesky-Zerlegung gemäß Abschnitt 3.8.3. Unter Verwendung der Berechnungsvorschriften (3.256) und (3.257) erhalten wir die Darstellung AT A = L L T mit einer linken Dreiecksmatrix L ∈ Mat(n; R), so daß die Normalgleichung sich in der Form L L T x = AT b schreiben und durch eine einfache Kombination von Rückwärts- und Vorwärtselimination lösen läßt. Eine weitere Vorgehensweise stellt der Einsatz des Verfahrens der konjugierten Gradienten dar. Diese Methode repräsentiert einen für symmetrisch positiv definite Matrizen sehr effizienten Ansatz, der in die Klasse der Krylov-Unterraumverfahren eingeordnet werden kann und bei Vernachlässigung von Rundungsfehlern bei AT A ∈ Mat(n; R) nach spätestens n Schritten die

3.11 Lineare Ausgleichsprobleme

347

Lösung der Normalgleichung liefert. Theoretisch könnte die Methode daher in die Menge der direkten Verfahren eingruppiert werden. In der Praxis wird der Algorithmus jedoch als iterativer Ansatz genutzt, da einerseits Rundungsfehler die theoretischen Ergebnisse real oftmals nicht eintreten lassen und andererseits bei großem n nicht derart viele Iterationen durchgeführt werden sollen. Eine Implementierung des Verfahrens in MATLAB ist in Fig. 3.30 dargestellt. Bezüglich einer ausführlichen Herleitung dieser sehr verbreiteten Methode und einer eingehenden Analyse ihrer Eigenschaften sei auf [96, 53, 144, 132, 141, 36] verwiesen. Bemerkung: Die grundlegende Problematik beim Einsatz der Normalgleichung zur Lösung linearer Ausgleichsprobleme liegt im Auftreten der Matrix AT A, die im Vergleich zur Matrix A in der Regel eine deutlich größere Konditionszahl aufweist. Die Konditionszahl einer Matrix ist jedoch ein Maß für die Sensibilität des Gleichungssystems. Große Konditionszahlen weisen darauf hin, daß auch bei kleinen Störungen, hervorgerufen beispielsweise durch Rundungsfehler oder fehlerhafte Eingangsdaten, sehr große Störungen in den numerischen Ergebnissen auftreten können. Zudem hängt die Konvergenzgeschwindigkeit iterativer Lösungsmethoden wie beispielsweise das angesprochene Verfahren der konjugierten Gradienten (auch CG-Verfahren genannt) sehr stark von der Größe der Konditionszahl ab. Diese Auswirkungen sollten beim Einsatz dieser Lösungsstrategie stets berücksichtigt werden. Detailliertere Ausführungen zur Konditionszahl können beispielsweise [96] entnommen werden. Übung 3.69* Berechne die Cholesky-Zerlegung für die Matrix AT A mit A gemäß Übung 3.68 (a).

3.11.3

Lösung des Minimierungsproblems

Neben der Betrachtung der Normalgleichung kann das lineare Ausgleichsproblem auch direkt durch die Minimierung der Fehlerquadrate gemäß der Formulierung | Ax − b|2 mit m > n, b ∈ Rm , und A ∈ Mat(m, n; R) gelöst werden. Bei diesem Vorgehen werden wir sowohl den Maximalrangfall (Rang A = n) als auch den Fall einer rangdefizitären Matrix (Rang A < n) berücksichtigen. Maximalrangfall Laut Satz 3.26, Abschn. 3.5.3, läßt die Multiplikation eines Vektors y ∈ Rm mit einer orthogonalen Matrix Q ∈ O(m) dessen euklidische Länge invariant, das heißt es gilt | Q y| = | y| für alle y ∈ Rm . Auf der Basis dieser Vorüberlegung liegt die Nutzung einer QR-Zerlegung der Matrix A zur Lösung des linearen Ausgleichsproblems nahe. Mit Satz 3.70 existieren zu der vorliegenden Matrix A wegen Rang A = n eine reguläre rechte Dreiecksmatrix R ∈ Mat(n; R) und eine orthogonale Matrix Q ∈ O(m) mit   R A= Q . 0

348

3 Matrizen

% KonjugGrad: Verfahren der konjugierten Gradienten % % Anwendungsbeispiele: Loese A*x=b; % % x = KonjugGrad(A,b); % function x = KonjugGrad(A,b) % % OUTPUT VARIABLEN: % ----------------% x: Loesungsvektor % % INPUT VARIABLEN: % ---------------% A: quadratische n * n Matrix. % b: rechte Seite. % tol: Toleranz. Default = 1e-6 % maxit: Maximale Anzahl von Iterationen. Default = min(n,30) [m,n] = size(A); tol = 1.0e-6; maxit = min(n,30); x = zeros(n,1); normb = norm(b); % % MAIN ALGORITHM % tolb = tol * normb; r = b - A * x; p = r; normr = norm(r); alpha = normr^2; % ITERATION for i = 1:maxit if (normr 0

>

n  j=1



 2 (R1 x) j − 1 bj + 

=0



m−n  j=1

2     R1 x |7 b j |2 =  − b  = | A1 x − b|2 . 0

Somit stellt 1 x die eindeutig bestimmte Lösung des linearen Ausgleichsproblems dar. Algorithmisch ergibt sich demzufolge das Vorgehen: • Bestimme eine QR-Zerlegung der Matrix A gemäß   R A= Q . 0 • Berechne die Lösung des linearen Ausgleichsproblems 1 x ∈ Rn durch Rückwärtselimination ausgehend von ⎡ T ⎤ ( Q b)1 ⎢ .. ⎥ 1 R1 x=b=⎣ . ⎦. ( Q T b)n

Für die verbleibende Summe der Fehlerquadrate gilt | A1 x − b|2 = |7 b|2

350

3 Matrizen

mit 5 6T 7 b = ( Q T b)n+1 , . . . , ( Q T b)m ∈ Rm−n . Beispiel 3.45: Wir betrachten das lineare Ausgleichsproblem | Ax − b| = min mit



⎤ 1 1 A = ⎣1 2⎦ 1 3

und

⎡ ⎤ 6 b = ⎣0⎦ . 6

Die zugehörige QR-Zerlegung, die beispielsweise mittels der Householder-Methode laut Abschnitt 3.10.2 ermittelt werden kann, lautet ⎡ 1 1 1 ⎤ ⎡√ √ ⎤ −√ −√ √ 3 2 3 ⎥ ⎢ 3 6 ⎢ 2 ⎢ 1 √ ⎥ 2 ⎥ ⎥ ⎥⎢ ⎢ 0 √ ⎥⎢ 0 A = ⎢√ 2⎥ . ⎥ ⎢ 3 ⎦ 6 ⎣ ⎣ 1 1 ⎦ 1 0 0 −√ √ √ 3 6 2     

 =Q R = 0 Somit erhalten wir unter Verwendung von ⎡ √ ⎤ 4 3 b = Q T b = ⎣ 0√ ⎦ −2 6 die Lösung 1 x=R

−1

 √    4 4 3 = 0 0

mit √ | A1 x − b| = 2 6 . Rangdefizitärer Fall Aus den eingangs vorgenommenen Untersuchungen wissen wir, daß das lineare Ausgleichsproblem bei einer Matrix A ∈ Mat(m, n; R), m > n und Rang A < n einen Lösungsraum der

3.11 Lineare Ausgleichsprobleme

351

Dimension n − Rang A aufweist. Somit stellt sich neben der Berechnung einer Lösung auch die Frage nach der Ermittelung der Optimallösung. Diese Aufgabenstellung werden wir unter Verwendung einer sogenannten Pseudoinversen lösen, die auf der Basis einer Singulärwertzerlegung angegeben werden kann. Wir widmen uns daher zunächst einer Verallgemeinerung des Inversenbegriffs einer Matrix. Definition 3.37: Es sei A ∈ Mat(m, n; R), m ≥ n. Eine Matrix G ∈ Mat(n, m; R) heißt generalisierte Inverse oder Pseudoinverse von A, wenn (i) AG A = A und

(ii) G AG = G

gelten. Erfüllt G zudem noch die Eigenschaften (iii) AG und G A sind symmetrisch, so sprechen wir von einer Moore-Penrose-Inversen77 , die wir mit A† bezeichnen. Bemerkung: Man erkennt sofort, daß (i) und (ii) sinnvolle Ausdrücke darstellen und G = A−1 für den Fall gilt, daß A eine invertierbare und quadratische Matrix ist. Aus der Beziehung Rang AG ≤ min{Rang A, Rang G} (Formel (3.23), Abschn. 3.2.3) und (i) schließen wir Rang A ≤ Rang G, und aus Gründen der Symmetrie ergibt sich: Ist G eine generalisierte Inverse von A, dann gilt Rang G = Rang A. Sofort einsichtig ist auch: Wenn U ∈ Mat(m, n; R) und V ∈ Mat(n, m; R) invertierbare Matrizen sind und G eine generalisierte Inverse von A ist, dann ist V −1 GU −1 eine generalisierte Inverse von U AV (s. Üb. 3.68). Während die Bedingungen (i) und (ii) die Operatoreigenschaften festlegen, liefern die Symmetriebedingungen (iii) die Eindeutigkeit der Pseudoinversen. Zum Nachweis der Existenz einer Moore-Penrose-Inversen benötigen wir den folgenden Hilfssatz. Hilfssatz 3.6: (Orthogonale Normalform) Zu jeder Matrix A ∈ Mat(m, n; R) existieren orthogonale Matrizen U ∈ O(m) und V ∈ O(n) (zu den Bezeichnungen s. Abschn. 3.5) derart, daß A die Darstellung   S 0 A=U VT (3.423) 0 0 besitzt. Dabei ist S ∈ Mat(r ; R) eine Diagonalmatrix mit (bis auf die Reihenfolge eindeutig bestimmten) positiven Diagonalelementen und es gilt r = Rang A. Zum Beweis s. z.B. [79, 9, 88, 52]. Für symmetrische Matrizen aus Mat(n; R) ist ein entsprechendes Resultat im Abschnitt 3.5 zu finden. 77 Eliakim Hastings Moore (1862 – 1932), US-amerikanischer Mathematiker; Sir Roger Penrose (∗ 1931), englischer Mathematiker und theoretischer Physiker.

352

3 Matrizen

Die Einträge innerhalb der in (3.423) auftretenden Matrix S werden üblicherweise der Größe nach in absteigender Reihenfolge geordnet und als Singulärwerte der Matrix A bezeichnet. Die Darstellung (3.423) heißt dementsprechend Singulärwertzerlegung von A. Aus (3.423) und den Beziehungen U T U = E sowie V T V = E (E: Einheitsmatrix) folgt sofort   S 0 T U AV = . (3.424) 0 0 Mit diesem Resultat zeigen wir nun: Satz 3.84: Zu jeder Matrix A ∈ Mat(m, n; R) existiert genau eine Moore-Penrose-Inverse. Unter Verwendung der in Hilfssatz 3.6 genutzten Notation hat diese die Darstellung   −1 0 S U T ∈ Mat(n, m; R) . (3.425) A† = V 0 0

Beweis: Einfaches Nachrechnen zeigt   −1     S 0 S 0 0 S T T U VT V V U A A† A = U 0 0    0 0    0 0 =E =E       S 0 S−1 0 S 0 S 0 T =U VT = A. V =U 0 0 0 0 0 0 0 0    

E 0 = 0 0 Analog erhalten wir A† A A† = A† , womit die Eigenschaften einer Pseudoinversen nachgewiesen sind. Die Symmetriebedingungen sind mit  T       −1  S 0 S 0 S−1 0 S UT V TV = U ( A A† )T = U 0 0 0 0 0 0 0 T      T E 0 E 0 U T = A A† = UT = U UT 0 0 0 0

 T 0 UT 0

und entsprechend für A† A erfüllt, so daß die Existenz einer Moore-Penrose-Inversen in der Form (3.425) bewiesen ist. Zum Nachweis der Eindeutigkeit überprüft man zunächst, daß mit † 1 A = V A† U T

3.11 Lineare Ausgleichsprobleme

353

 S 0 vorliegt, wenn A† eine Moore0 0 Penrose-Inverse  vonA darstellt. Wir werden uns nun auf die Eindeutigkeit der Moore-PenroseS 0 Inversen von konzentrieren und anschließend hiermit die Eindeutigkeit der Pseudoinver0 0 sen für A schlußfolgern. Schreiben wir   A11 A12 † 1 A = A21 A22

eine Moore-Penrose-Inverse von 1 A := U T AV =



mit A11 ∈ Mat(r ; R), A12 ∈ Mat(r, m − r ; R), A21 (n − r, r, R) und A22 ∈ Mat(n − r, m − r ; R). Unter Verwendung der Operatoreigenschaften (i) und (ii) laut Definition 3.37 erhalten wir aus         S 0 S 0 A11 A12 S 0 S A11 S 0 = = 0 0 0 0 A21 A22 0 0 0 0 aufgrund der Regularität von S den Zusammenhang A11 = S−1 S A11 SS−1 = S−1 SS−1 = S−1 , so daß aus  −1 S A21

  −1 † † 1† A12 S =1 A =1 A 1 AA = A22 A21

A12 0



direkt A22 = 0 folgt.

Einsetzen der erzielten Darstellungen für A11 und A12 liefert     −1  E 0 † A12 S 0 S 1 = A= A 1 0 0 A21 S 0 A21 0 und  S † 1 1 AA = 0

 0 S−1 0 A21

  E A12 = 0 0

 S A12 , 0

so daß die Symmetriebedingungen (iii) in Kombination mit der Invertierbarkeit der Matrix S † A die eindeutig bestimmte Darstellung direkt A21 = 0 und A12 = 0 implizieren. Folglich hat 1   −1 † 0 S 1 . A = 0 0 Seien A† und B † zwei Moore-Penrose-Inverse von A, dann gilt aufgrund der oben nachgewiesenen Eindeutigkeit der Moore-Penrose-Inversen von 1 A der Zusammenhang V A† U T = 1 A = V B† U T , †

354

3 Matrizen

so daß mit A† = V T V A† U T U = V T 1 A U = V T V B† U T U = B† †



der Beweis des Satzes erbracht ist.

Auf der Basis der Moore-Penrose-Inversen kann sowohl die Lösungsmenge als auch die Optimallösung des linearen Ausgleichsproblems explizit angegeben werden. Satz 3.85: Sei A† ∈ Mat(n, m; R) die Moore-Penrose-Inverse der Matrix A ∈ Mat(m, n; R). Dann ist die Lösungsmenge des linearen Ausgleichsproblems für gegebenes b ∈ Rm durch x = A† b + y − A† A y

mit

y ∈ Rn

(3.426)

gegeben. Zudem stellt 1 x = A† b

(3.427)

die Optimallösung im Sinne der Definition 3.36 dar. Beweis: Unter Verwendung der orthogonalen Normalform laut Hilfssatz 3.6 schreiben wir die Matrix A des linearen Ausgleichsproblems in der Form   S 0 A=U VT . 0 0 Mit w := V T x erhalten wir hierdurch         S S 0 T  | Ax − b| = U V x − b =  0 0 0

   0 T  w − U b . 0

Analog zur Vorgehensweise beim QR-Ansatz wird der Ausdruck für   −1 0 S 1= UTb w 0 0 minimal, so daß mit  −1 S 1 1=V x = Vw 0

 0 U T b = A† b 0

eine Lösung des linearen Ausgleichsproblems vorliegt. Da für alle v ∈ Kern A stets | A(1 x + v) − b| = | A1 x − b|

3.11 Lineare Ausgleichsprobleme

355

gilt und aufgrund der Dimensionsformel gemäß Satz 3.5 die Eigenschaft dim Kern A = n − Rang A vorliegt, erhalten wir die Lösungsmenge des linearen Ausgleichsproblems unter Berücksichtigung des Satzes 3.83 in der Form 1 x+v

mit v ∈ Kern A .

Zum Nachweis der Lösungsstruktur (3.426) ist eine explizite Darstellung des Nullraums notwendig. Für 7 v ∈ Kern A gilt 7 v =7 v − A†  A7 v . =0

Entsprechend ergibt sich für beliebiges y ∈ Rn † A( y − A† A y) = A y − A A  A y = 0 , =A

so daß Kern A = {v ∈ Rn | Es gibt ein y ∈ Rn mit v = y − A† A y} und folglich die Lösungsform (3.426) gilt. Unter Verwendung der Eigenschaften (iii) und (ii) der Moore-Penrose-Inversen ergibt sich die Orthogonalität von 1 x = A† b zum Kern A durch Berücksichtigung der Übung 3.71 gemäß ( y − A† A y, A† b) = ( y, A† b) − ( A† A y, A† b) = ( y, A† b) − ( y, ( A† A)T A† b) (ii) (iii) = ( y, A† b) − ( y, A† A A† b) = ( y, A† b) − ( y, A† b) = 0 für alle y ∈ Rn . Hieraus folgt mit dem Satz von Pythagoras |x|2

(3.426) = | y − A† A y + A† b|2 = | y − A† A y|2 + | A† b|2 ≥ | A† b|2 ,

womit 1 x = A† b Optimallösung des linearen Ausgleichsproblems ist.



Bemerkung: Im Fall Rang A = n < m ergibt sich die gemäß der Normalgleichung zu erwartende Form der Pseudoinversen    T  S−1  −1    −1 † (3.425) V TV S 0 UT A = V S 0 U =V S 0 0    T   S VT = V S−1 S−1 V T V S 0 U T = (V SSV T )−1 U 0

356

3 Matrizen

 =

  −1    T   S S V S 0 UT U VT = ( AT A)−1 AT . U VT 0 0          T =A

=A

(3.428)

= AT

Die Lösung des linearen Ausgleichsproblems ist laut Satz 3.82 eindeutig. Diese Eigenschaft wird auch durch die Lösungsdarstellung (3.426) bestätigt, denn es gilt für alle y ∈ Rn die Umformung x

(3.426) † = A b + y − A† A y = ( AT A)−1 AT b + y − ( AT A)−1 AT A y = ( AT A)−1 AT b .    =E

Im Spezialfall einer regulären Matrix A ∈ Mat(n; R) zeigt sich durch (3.428) nochmals die eingangs betrachtete Eigenschaft A†

(3.428) T −1 T = ( A A) A = A−1 A− T AT = A−1 ,

wodurch mit der Pseudoinversen eine Erweiterung des Inversenbegriffs erzielt wurde. Mit   U = u1 , . . . , um ∈ O(m) , und ⎡

s1

⎢ S=⎣

  V = v 1 , . . . , v n ∈ O(n)

⎤ ..

⎥ ⎦ = diag(s1 , . . . , sr ) ∈ Mat(r ; R)

. sr

erhalten wir aus (3.425) und (3.427)   −1 0 S 1 UTb x = A† b = V 0 0

   S−1 = v1, . . . , vn 0

⎤ (uT1 b)/s1 ⎥ ⎢ .. ⎡ T ⎤ ⎥ ⎢ . u b ⎥ ⎢  r 1 T  ⎢   uiT b (ur b)/sr ⎥ 0 ⎢ .. ⎥ ⎥= ⎢ vi . ⎣ . ⎦ = v1, . . . , vn ⎢ ⎥ 0 0 ⎥ i=1 si ⎢ T um b ⎥ ⎢ .. ⎦ ⎣ . ⎡

0 Zur Berechnung der Singulärwertzerlegung (3.423) einer Matrix A stehen derzeit unterschiedliche Verfahren zur Verfügung. So werden beim Jacobi-Verfahren sukzessive beidseitige oder einseitige orthogonale Transformationen genutzt. Die bereits in den 50er Jahren des vorigen Jahrhunderts vorgestellten Techniken gehen auf Kogbetlianz respektive Hestenes zurück und werden ausführlich in [9] vorgestellt. Eine andere Verfahrensklasse nutzt zunächst eine Überführung der Matrix A in eine Bidiagonalgestalt bei der neben der Diagonalen nur noch eine Nebendiagonale

3.11 Lineare Ausgleichsprobleme

357

von Null verschiedene Elemente aufweist. In die Gruppe gehören der GKR-Algorithmus nach Goloub, Kahan und Reinsch sowie die Singulärwertzerlegung nach Chan und die Divide-andConquer Methode, die in [9, 36, 52] beschrieben werden.

Beispiel 3.46: Wir betrachten das lineare Ausgleichsproblem | Ax − b| = min mit ⎡√

√ ⎤ 2 2 ⎥ √ ⎥ ⎥ 2⎥ ⎥ 2 ⎦ 1

2 ⎢ 2 ⎢√ ⎢ A=⎢ 2 ⎢ ⎣ 2 1



und

⎤ 1 b = ⎣−1⎦ 2

Unter Verwendung der Singulärwertzerlegung √ ⎡ ⎤ 1 1 2 √ ⎤ ⎡√ ⎢ 2 ⎤ 2 2 2 2 ⎥ ⎢ ⎥⎡ √ ⎢ ⎥ 2 0 ⎢ ⎢ 1 ⎥ 2 1 2 2 ⎥ A=⎢ ⎥ ⎣0 0⎦ ⎢ √ ⎥ − ⎦ ⎣√ ⎢ 2 ⎥ 2 2 2 2 0 0 ⎢√ √ ⎥ − ⎣ 2 ⎦ 2  2  2  0 − 2 2 =V T    =U

erhalten wir die Moore-Penrose-Inverse in der Form ⎤ ⎡ 1  0 0 ⎦ U T = 0,1768 0,1768 A† = V ⎣ 2 0,1768 0,1768 0 0 0 Die Optimallösung ergibt sich somit gemäß ⎡1⎤ ⎢ ⎥ 1 x = A† b = ⎣ 2 ⎦ . 1 2 Offensichtlich gilt dim Kern A = 2 − Rang A = 1 ,

 0,25 . 0,25

358

3 Matrizen

und durch einfaches Nachrechnen folgt ⎡1 ⎢ v = y − A Ay = y − ⎣2 1 2 †

⎤ ⎡ 1 1⎤ (y1 − y2 ) ⎥ 2⎥ y = ⎢ 2 ⎦ ⎦ ⎣ 1 1 − (y1 − y2 ) 2 2

für

  y y = 1 ∈ R2 . y2

Der Lösungsraum hat somit die Gestalt ⎫ ⎧ ⎡1⎤ ⎪ ⎪   ⎬ ⎨  1 ⎢2⎥  , λ∈R . M = xx = ⎣ ⎦+λ −1 ⎪ ⎪ 1 ⎭ ⎩ 2 Übung 3.70: Zeige: Sind U ∈ Mat(m, n; R), V ∈ Mat(n, m; R) und G eine generalisierte Inverse von A, dann ist V −1 GU −1 eine generalisierte Inverse von U AV .

Übung 3.71* Es seien A ∈ Mat(m, n; R), x ∈ Rn und y ∈ Rm . Dann gilt: ( Ax, y) = (x, AT y).

Übung 3.72* Beweise, daß die Matrix ⎡ ⎤ 1 1 0 ⎢ ⎥ A = ⎣0 0 1 ⎦ 0 0 0 die Moore-Penrose-Inverse ⎤ ⎡1 0 0 ⎥ ⎢2 ⎥ ⎢ † 1 ⎥ ⎢ A =⎢ 0 0⎥ ⎦ ⎣2 0 1 0 besitzt und berechne hiermit die Optimallösung des linearen Ausgleichsproblems | Ax − b| = min mit ⎡ ⎤ 2 ⎢ ⎥ b = ⎣2⎦ . 1

4

Anwendungen

Wir wollen in diesem Abschnitt an einfachen Beispielen aufzeigen, wie sich Hilfsmittel aus der linearen Algebra bei verschiedenen Problemen der Technik vorteilhaft verwenden lassen.

4.1

Technische Strukturen

4.1.1

Ebene Stabwerke

Unser Anliegen ist es, technische Gebilde zu untersuchen, die aus idealisierten Bauteilen, den Stäben aufgebaut sind. Diese Stäbe sind in bestimmten Verbundstellen, den Knoten zusammengefügt, etwa gemäß Fig. 4.1. Gebilde dieser Art nennt man Stabwerke. Für die mathematische

Fig. 4.1: Ebenes Stabwerk

Beschreibung eines Stabwerks sind drei Gesichtspunkte maßgebend: die Klärung der geometrischen Zusammenhänge, die Charakterisierung des materiellen Verhaltens sowie die Kräfte- und Momentebilanz. In den Anwendungen (z.B. im Brückenbau) interessiert man sich besonders dafür, wie ein solches i.a. dreidimensionales Stabwerk bei Belastungen reagiert. Zur Vereinfachung beschränken wir uns im Folgenden auf ebene Stabwerke; d.h. sämtliche Stäbe und Knoten liegen in derselben Ebene. Ferner sollen die Stäbe gerade sein und alle Belastungen nur in den Knoten auftreten. Um das Stabwerk als Gesamtgebilde zu erfassen, führen wir in der Ebene, in der das Stabwerk liegt, ein globales Koordinatensystem (s. etwa Fig. 4.1) ein: (x, y)-System. Zur Untersuchung einzelner Stäbe ist es vorteilhaft, zusätzlich lokale Koordinatensysteme zu verwenden, bei denen wir jeweils eine Achse in Stabrichtung, den »linken Knoten« 1 als Ursprung und die zweite Achse senkrecht zur ersten Achse wählen (s. Fig. 4.2): (ξ, η)-System. Zur weiteren Untersuchung des Stabwerks numerieren wir die einzelnen Stäbe mit den natürlichen Zahlen 1,2, . . . , q durch. 1 Numeriert man die Knoten der Reihe nach durch, so kann man z.B. in einem Stab den Knoten, dem eine kleinere Zahl entspricht als dem anderen Knoten, als links ansehen.

360

4 Anwendungen

Fig. 4.2: Lokales Koordinatensystem

1. Berechnung der Formänderungsarbeit Wir greifen zunächst den Stab mit der Nummer k heraus und berechnen für diesen die zugehörige Formänderungsarbeit. Der Stab besitze die Länge lk . Ferner bezeichne Nk (ξ ) Q k (ξ )

die Normalkraft

das Biegemoment Mk (ξ ) die Querkraft an der »Schnittstelle ξ «, 0 ≤ ξ ≤ lk . Die Materialdaten E J G

Elastizitätsmodul Trägheitsmoment Schubmodul

und der Querschnitt F seien für alle Stäbe gleich. Nach bekannten Prinzipien der Elastizitätstheorie2 besteht für die Formänderungsarbeit Wk für den Stab k die Beziehung

1 Wk = EF

.lk Nk2 (ξ )dξ 0

1 + EJ

.lk Mk2 (ξ )dξ

1 + EG

0

.lk Q 2k (ξ )dξ.

(4.1)

0

Da nach Voraussetzung die Belastungen nur in den Knoten, also an den beiden Enden des Stabes, angreifen, sind Normal- und Querkraft konstant: Nk (ξ ) = Nk (0) = Nk (lk ) = const := Nk 1 Q k (ξ ) = − (Mk (0) + Mk (lk )) = const := Q k , lk

(4.2)

0 ≤ ξ ≤ lk . Ferner ist das Biegemoment eine lineare Funktion von ξ : Mk (ξ ) = (1 − 2 s. z.B. [22], S. 193

ξ ξ )Mk (0) − Mk (lk ) . lk lk

(4.3)

4.1 Technische Strukturen

361

Setzen wir (4.2) und (4.3) in (4.1) ein, so ergibt sich nach Berechnung der entsprechenden Integrale (k)

(k)

(k)

(k)

k + c32 )Mk (0)Mk (lk ) . Wk = c11 Nk2 + c22 Mk2 (0) + c33 Mk2 (lk ) − (c23

(4.4)

Dabei sind die Koeffizienten in (4.4) durch (k)

1 1 lk lk lk (k) (k) , c22 := + + , c33 := EF 3E J E Glk 3E J E Glk

(k)

lk lk 1 1 (k) , c32 := + + 6E J E Glk 6E J E Glk

c11 := und c23 :=

gegeben. Wir bilden nun den Vektor ⎡ ⎤ Nk w k := ⎣ Mk (0) ⎦ Mk (lk ) und die Flexibilitäts-Matrix ⎤ ⎡ (k) c11 0 0 ⎥ ⎢ ⎢ (k) (k) ⎥ C k := ⎢ 0 −c23 ⎥ . c22 ⎦ ⎣ 0

(k)

−c32

(4.5)

(4.6)

(k)

c33

Dann läßt sich (4.4) in der Form Wk = wTk C k w k

(4.7)

schreiben. Damit haben wir die Formänderungsarbeit für den Stab k durch eine quadratische Form3 beschrieben. Bemerkung: Häufig kann der Einfluß der Querkraft vernachlässigt werden. In diesem Fall lautet die Flexibilitäts-Matrix ⎤ ⎡ l k 0 0 EF ⎥ ⎢ ⎢ lk lk ⎥ C k := ⎢ 0 (4.8) − 3E J 6E J ⎥ ⎦ ⎣ 0 − 6Elk J − 3Elk J Nun lösen wir uns von der Betrachtung des einzelnen Stabes und gehen zum gesamten Stabwerk über. Hierzu bilden wir die freien Summen (s. Abschn. 2.4.4) bzw. die direkten Summen (s. 3 s. Abschn. 3.5.4

362

4 Anwendungen

Abschn. 3.5.8, Def. 3.14) ⎤ w1 ⎢w 2 ⎥ ⎢ ⎥ w := w1  w 2  . . .  w n = ⎢ . ⎥ ⎣ .. ⎦ ⎡

(4.9)

wn

bzw. ⎡ ⎢ ⎢ C := C 1 ⊕ C 2 ⊕ . . . ⊕ C n = ⎢ ⎣



C1 C2

0

..

0 ⎥⎥ ⎥ ⎦

.

(4.10)

Cn

und mit diesen den Ausdruck W := wT Cw .

(4.11)

Durch (4.11) ist die Formänderungsarbeit des Gesamtsystems gegeben. Die Formänderungsarbeit eines ebenen Stabwerks läßt sich also durch eine quadratische Form besonders übersichtlich und prägnant ausdrücken. Bei weiterführenden Untersuchungen von Stabwerken ist diese Darstellungsart besonders vorteilhaft. 2. Globales Gleichgewicht Wir betrachten zunächst wieder ein einzelnes Stabwerk-Element: Wir greifen den Stab mit der Nummer k heraus. Die sechs Stabendkräfte, d.h. die Werte von Normalkraft, Querkraft und Biegemoment jeweils an den Enden des Stabes, fassen wir zu einem Vektor zusammen (k) ⎤ ⎡ ⎤ s1 N(k) (0) (k) ⎢s ⎥ ⎢ Q (k) (0) ⎥ ⎢2 ⎥ ⎢ ⎥ ⎢ (k) ⎥ ⎢ M(k) (0) ⎥ ⎢s3 ⎥ ⎢ ⎥. = ⎢ (k) ⎥ := ⎢ N(k) (lk ) ⎥ ⎢s4 ⎥ ⎢ ⎥ ⎢ (k) ⎥ ⎣ Q (k) (lk )⎦ ⎣s ⎦ 5 M(k) (lk ) (k) s6



s(k)

(4.12)

Zwischen den Stabendkräften bestehen i.a. lineare Beziehungen, d.h. der Form α1 s1 + α2 s2 + . . . + α6 s6 = 0, wobei nicht sämtliche αi verschwinden. Wie sich herausstellen wird, kann man die Anzahl der Stabendkräfte, zwischen denen keine lineare Beziehung besteht, von sechs auf drei reduzieren. Wir bilden daher den Vektor ⎤ ⎡ (k) f1 ⎥ ⎢ (4.13) f k := ⎣ f 2(k) ⎦ . (k) f3

4.1 Technische Strukturen

363

Die Verbindung zwischen den Vektoren sk und f k wird durch die sogenannte Kräfte-Transformations-Matrix K k hergestellt: sk = K k f k .

(4.14)

Die Matrix K k läßt sich aus einfachen Gleichgewichtsüberlegungen bestimmen: Aufgrund unserer Voraussetzung, daß die Belastungen in den Knoten des jeweiligen Stabes angreifen, gelten für die Normalkraft N , Querkraft Q und das Biegemoment M eines Stabes an der Schnittstelle ξ , 0 ≤ ξ ≤ l, die Beziehungen N = a1 ,

Q = a2 ,

M = a2 ξ + a3

(4.15)

mit geeigneten Konstanten a1 , a2 , a3 . Jede statisch bestimmte Lagerung eines Stabes ermöglicht es nun, diese Konstanten — und damit den Zusammenhang zwischen s und f — festzulegen. Um dies zu verdeutlichen, betrachten wir als Beispiel die in Fig.4.3 angegebene Lagerart. Es bestehen folgende Zusammenhänge (s. auch Fig. 4.3): s1 = f 1 ,

1 s2 = − ( f 2 + f 3 ) l s4 = f 1

s3 = f 2 , 1 s5 = ( f 2 + f 3 ) , l

s6 = f 3 .

Für die von uns gewählte Lagerart erhalten wir damit die Kräfte-Transformations-Matrix ⎤ ⎡ 1 0 0 ⎢0 − 1 − 1 ⎥ l l⎥ ⎢ ⎢0 1 0 ⎥ ⎥. (4.16) Kk = ⎢ ⎢1 0 0 ⎥ ⎥ ⎢ 1 ⎦ 1 ⎣0 l l 0 0 1 Bemerkung: Bei anderen statisch bestimmten Lagerungen geht man analog vor. Wir wenden uns nun dem Gesamtsystem zu und nehmen dabei an, daß uns die einzelnen KräfteTransformations-Matrizen K k (k = 1,2, . . . , q), die sich jeweils auf ein lokales Koordinatensystem ((ξk , ηk )− System, s. auch Fig. 4.4) beziehen, bekannt sind. Wir wollen sie nun auf unser globales Koordinatensystem ((x, y)-System) umrechnen. Hierzu drehen wir das (ξk , ηk )-System im Uhrzeigersinn um seinen Koordinatenursprung, so daß die positive ξk − Achse in eine Parallele zur positiven x-Achse des globalen Koordinatensystems übergeht. Der Drehwinkel sei ϕk . Diese Drehung läßt sich mit Hilfe der Eulerschen Matrix (s. Abschn. 3.9.3, (3.359)) ⎡ ⎤ cos ϕk − sin ϕk 0 cos ϕk 0⎦ R(ϕk ) = ⎣ sin ϕk (4.17) 0 0 1

364

4 Anwendungen

Fig. 4.3: Eine statisch bestimmte Lagerung

Fig. 4.4: Drehung des lokalen Koordinatensystems

beschreiben. Die letzte Zeile und Spalte bringen zum Ausdruck, daß sich die Momente bei der Drehung des Koordinatensystems nicht ändern. Nun bilden wir die Matrix D(ϕk ) :=R(ϕk ) ⊕ R(ϕk ) (direkte Summe im Sinne von Abschn. 3.5.8)

(4.18)

und ersetzen K k durch das Matrix-Produkt D(ϕk )K k . K k → D(ϕk )K k .

(4.19)

Damit erhalten wir im globalen Koordinatensystem zwischen den aus den Stabendkräften des Stabes mit der Nummer k gebildeten Vektoren sk und f k den Zusammenhang sk = D(ϕk )K k f k

(4.20)

bzw. mit Ak := D(ϕk )K k

4

(4.21)

die Beziehung sk = Ak f k .

(4.22)

Zur Beschreibung des globalen Gleichgewichts gehen wir aus von den p Lastvektoren in den inneren Knoten ⎡ ⎤ ⎡ ⎤ ⎡ ( p) ⎤ (1) (2) r r1 r1 ⎢ ⎥ ⎢ ⎥ ⎢1 ⎥ r 1 := ⎣r2(1) ⎦ , r 2 := ⎣r2(2) ⎦ , . . . , r p := ⎣r2( p) ⎦ (1) (2) ( p) r3 r3 r3 4 Mann nennt die zu Ak transponierte Matrix AT k lokale Gleichgewichtsmatrix.

4.1 Technische Strukturen

365

und den (n − p) Lastvektoren in den Lagern ⎤ ⎡ ( p+1) ⎤ ⎡ ( p+2) ⎤ ⎡ (n) r1 r1 r1 ⎥ ⎥ ⎥ ⎢ ⎢ ⎢ r p+1 := ⎣r2( p+1) ⎦ , r p+2 := ⎣r2( p+2) ⎦ , . . . , r n := ⎣r2(n) ⎦ , (n) ( p+1) ( p+2) r3 r3 r3 die wir zu einem Knotenlast-Vektor r zusammenfassen: ⎡ (1) ⎤ r1 ⎢ .. ⎥ r := r 1  r 2  . . .  r n = ⎣ . ⎦ .

(4.23)

(1) rn

Ebenso fassen wir die q Vektoren ⎡ ⎤ ⎡ (2) ⎤ (q) (1) ⎤ s1 s1 s ⎢ 1. ⎥ ⎢ .. ⎥ ⎢ .. ⎥ ⎥ s1 := ⎣ . ⎦ , s2 := ⎣ . ⎦ , . . . , sq := ⎢ ⎣ .. ⎦ (1) (2) (q) s6 s6 s6 ⎡

der Stabendkräfte zum Stabkraft-Vektor s zusammen: ⎡ ⎤ s1 ⎢ s2 ⎥ ⎢ ⎥ s := s1  s2  . . .  sq = ⎢ . ⎥ . ⎣ .. ⎦

(4.24)

sq bzw. die Vektoren f 1 , . . . , f q zum Vektor ⎤ f1 ⎢ f 2⎥ ⎢ ⎥ f := f 1  f 2  . . .  f q = ⎢ . ⎥ . ⎣ .. ⎦ ⎡

(4.25)

fq Die Wechselwirkung der einzelnen Stäbe berücksichtigen wir durch die Einführung einer Inzidenz-Matrix G = [gkm ], deren Elemente durch  1 , wenn sm einen Beitrag zum Gleichgewicht in Richtung von r k leistet gkm := 0 , sonst erklärt sind. Die globale Gleichgewichtsbedingung lautet dann Gs = r .

(4.26)

366

4 Anwendungen

Zwischen den Vektoren s und f besteht wegen (4.22) der Zusammenhang s = ( A1 ⊕ A2 ⊕ . . . ⊕ Aq ) f

(4.27)

s = (⊕ Ak ) f

(4.28)

kurz

geschrieben, so daß aus (4.26) folgt: G(⊕ Ak ) f = r

(4.29)

(Gleichgewichtsbedingung für ein ebenes Stabwerk). Bemerkung. Beziehung (4.29) kann auch als lineares Gleichungssystem zur Bestimmung des Stabkraft-Vektors f bei vorgegebenem Knotenlast-Vektor r interpretiert werden. 4.1.2

Elektrische Netzwerke

Im Folgenden untersuchen wir die Strom- bzw. Spannungsverteilung aus linearen Zweipol-Elementen (jeweils ein Eingang und ein Ausgang!). Ein Beispiel für ein solches Netzwerk zeigt Figur 4.5. Das Hilfsmittel der Vektor- bzw. Matrizenrechnung läßt sich dadurch heranziehen, daß man jedem Netzwerk einen gerichteten und bewerteten Graphen zuordnet5 (s. auch Fig. 4.6):

Fig. 4.5: Passives Netzwerk

Fig. 4.6: Zugeordneter Graph

Jedem Knotenpunkt des Netzwerkes entspricht eine Ecke des Graphen und jedem elektrischen Leitungsstück (mit elektrischem Element) eine Kante, auch Zweig genannt. Aus dem Graphen wird ein gerichteter (orientierter) Graph, in dem auf jeder Kante (willkürlich) ein Anfangs-und ein Endpunkt ausgezeichnet wird (veranschaulicht durch einen Pfeil, der vom Anfangs- zum Endpunkt weist; s. auch Fig. 4.6). Die Bewertung erfolgt dadurch, daß jede Kante mit der dort 5 Für weitergehende Untersuchungen auf der Grundlage der Graphentheorie s. z.B [126] oder [143].

4.1 Technische Strukturen

367

auftretenden Stromstärke belegt wird und jede Ecke mit der dort auftretenden Spannung. Außerdem kennzeichnen wir die einzelnen geschlossenen Kantenzüge: die Kreise (oder Maschen).6 Diese werden ebenfalls (beliebig) orientiert, etwa wie in Fig. 4.6 gestrichelt dargestellt.

Beispiel 4.1: Dem in Fig. 4.5 skizzierten passiven Netzwerk7 wird der in Fig. 4.6 dargestellte Graph zugeordnet. Dabei sind folgende Numerierungen gewählt: 1,2,3,4 (1), (2), (3), (4), (5) I, II, III

für die Ecken für die Kanten für die Kreise (Maschen).

Die in der Kante (m) auftretende Stromstärke, die i.a. von der Zeit t abhängt, bezeichnen wir mit jm (t). Für die der Ecke e zugeordnete Spannung schreiben wir u e (t). Eine Strom-Bilanz ergibt in 1: in 2:

j1 (t)+ j2 (t) − j2 (t)+ j3 (t)+ j4 (t)

=0 − j4 (t)+ j5 (t) = 0

in 3: in 4: − j1 (t)

=0

− j3 (t)

(4.30)

− j5 (t) = 0 .

Dabei haben wir ein positives Vorzeichen genommen, wenn die Richtung der Kante von der jeweiligen Ecke wegweist. Im anderen Fall haben wir ein negatives Vorzeichen gewählt. Eine Spannungsbilanz ergibt =0 in I: −u 1 (t)+u 2 (t)+u 3 (t) in II: +u 3 (t)−u 4 (t)−u 5 (t) = 0 in III: −u 1 (t)+u 2 (t)

(4.31)

+u 4 (t)+u 5 (t) = 0

(positives Vorzeichen wenn Kanten-und Maschenrichtung übereinstimmen, sonst negatives Vorzeichen). Nun bilden wir die Koeffizienten-Matrizen von (4.30) bzw. (4.31): ⎡ ⎤ ⎡ 1 1 0 0 0 −1 1 1 ⎢ 0 −1 1 ⎥ 1 0 ⎥ bzw. B := ⎣ 0 0 1 A := ⎢ ⎣0 0 0 −1 1 ⎦ −1 1 0 −1 0 −1 0 −1

6 keine Ecke darf mehrmals durchlaufen werden. 7 Ein passives Netzwerk enthält keine Strom- bzw. Spannungsquellen.

0 −1 1

⎤ 0 −1⎦ 1

368

4 Anwendungen

und führen folgende Vektoren (Bewertungen) ein: ⎡ ⎤ ⎡ ⎤ j1 (t) u 1 (t) ⎢ j2 (t)⎥ ⎢u 2 (t)⎥ ⎢ ⎥ ⎢ ⎥ j (t) := ⎢ . ⎥ , u(t) := ⎢ . ⎥ . ⎣ .. ⎦ ⎣ .. ⎦ j5 (t) u 5 (t) Damit lassen sich die Gl. (4.30) bzw. (4.31), also die Kirchhoff´schen 8 Strom- und Spannungsgesetze für unser elektrisches Netzwerk in Matrizenform schreiben: A j (t) = 0 bzw.

Bu(t) = 0 .

(4.32)

Übung 4.1: Für festes (zulässiges) t löse man die Gleichungssysteme (4.32) (bzw. (4.30) und (4.31)). Man ermittle insbesondere alle linear unabhängigen Strom-und Spannungsvektoren. Welchen Rang besitzen die Matrizen A und B?

Wir behandeln nun den allgemeinen Fall. Dabei gehen wir davon aus, daß der gerichtete und bewertete Graph eines elektrischen Netzwerkes vorliegt. Die folgenden Überlegungen verdeutlichen interessante Analogien zu den ebenen Stabwerken, die wir im vorhergehenden Abschnitt betrachtet haben. Zur Erfassung der Wechselwirkung der jeweiligen Ecken und Kanten auf die gesamte Stromverteilung führen wir auch in diesem Fall eine Inzidenz-Matrix ein: Definition 4.1: Ist G ein gerichteter Graph mit den Ecken e1 , e2 , . . . , em und den Kanten k1 , k2 , . . . , kn (ei , ki ∈ N), dann verstehen wir unter der (Ecken-Kanten-)Inzidenz-Matrix von G eine Matrix A = [ail ] mit dem Format (m, n), wobei ⎧ ⎪ ⎨+1 , wenn kl den Anfangspunkt ei hat ail := −1 , wenn kl den Endpunkt ei hat ⎪ ⎩ 0 , wenn kl die Ecken ei nicht trifft. Es sollen keine Kanten vorkommen, bei denen Anfangs- und Endpunkt übereinstimmen. Übung 4.2: Man bestätige, daß die Matrix A in Beispiel 4.1 auf diese Weise zustande kommt. 8 G.R. Kirchhoff (1824 – 1887), deutscher Physiker und Mathematiker.

4.1 Technische Strukturen

369

Die Bedeutung der Inzidenz-Matrix für das mit dem Graphen korrespondierende Netzwerk beruht darauf, daß ein Vektor ⎡ ⎤ j1 (t) ⎢ ⎥ j (t) := ⎣ ... ⎦ jn (t)

genau dann die Zweigströme repräsentieren kann, wenn gilt A j (t) = 0 (Kirchhoffsches Stromgesetz)

(4.33)

für alle zulässigen t.

Einführung von Schnittmengenmatrizen Die in Definition 4.1 erklärte Inzidenz-Matrix A enthält i.a auch überflüssige Reihen, d.h. die Zeilenvektoren von A sind linear abhängig. An Beispiel 4.1 sehen wir, daß eine Stromgleichung entbehrlich ist (s. Üb. 4.1). Unser Anliegen ist es, A durch eine Matrix C zu ersetzen, bei der die überzähligen Reihen aus A entfernt sind, d.h. C soll nur linear unabhängige Zeilen enthalten. Zur Bestimmung von C ziehen wir einige Begriffsbildungen aus der Graphentheorie heran. Wir verzichten dabei auf die allgemeinen und präzisen Definition9 und begnügen uns hier damit, diese Begriffe auf anschaulicher Ebene und anhand von einfachen Beispielen zu verdeutlichen. Ist ein zusammenhängender Graph vorgegeben (z.B. der in Fig. 4.6 dargestellte), so wird er zu einem Baum, wenn wir gerade so viele Zweige aus dem Graphen entfernen, daß die verbleibenden Zweige keine Kreise (Maschen) mehr bilden und der Graph zusammenhängend bleibt. Der Graph aus Beispiel 4.1 enthält die in Fig. 4.7 durchgezogen gezeichneten Bäume.

Fig. 4.7: Bäume eines Graphen

Im Folgenden setzen wir stets voraus, daß der von uns betrachtete Graph ein ebener Graph ist (d.h. der Graph liegt in einer Ebene und zwei verschiedene Kanten können sich nicht schneiden, abgesehen von einer Ecke, die beide gemeinsam haben). Nun führen wir in einem Graphen »Schnitte« ein: Unter einem Schnitt verstehen wir eine 9 diese finden sich z.B. in [147] oder [152]

370

4 Anwendungen

Kurve C 10 , die den Graphen und die Ebene, in der der Graph liegt, in zwei Teile zerlegt. Dabei darf jeder Zweig (Kante) nur einmal geschnitten werden. Nun wählen wir aus dem Graphen einen Baum aus, der alle Ecken des Graphen enthält. Ein Schnitt des Graphen heißt Fundamentalschnitt, wenn er den gewählten Baum genau in einem Zweig des Baumes trifft. Der durchgeschnittene Zweig des Baumes ist so orientiert, daß er in eine der beiden Teilebenen weist. In jedem Punkt von C denken wir uns einen Pfeil angebracht, der in diesen Teil der Ebene weist. In Fig. 4.8a) bis c) sind Beispiele zur Erläuterung dieser Begriffsbildung gegeben:

Fig. 4.8: Orientierte Fundamentalschnitte

Definition 4.2: Sei G ein gerichteter Graph mit den Ecken e1 , . . . , em und den Kanten k1 , . . . , kn . B sei ein Baum aus G, der alle Ecken enthält. Ferner seien C1 , . . . , Cs orientierte Fundamentalschnitte von G, bezogen auf den Baum B. Dabei werde jede Kante des Baumes von genau einem Schnitt C j durchschnitten. Die Kanten des Baumes B sind den Schnitten C j auf diese Weise umkehrbar eindeutig zugeordnet. Unter der Schnittmengen-Matrix von G verstehen wir die Matrix C := [c pq ] vom Format (s, n) mit ⎧ ⎪ ⎨ +1, wenn die Orientierungen von kq und C p übereinstimmen c pq := −1, wenn die Orientierungen von kq und C p entgegengesetzt sind ⎪ ⎩ 0, wenn sich kq und C p nicht schneiden. (4.34) Bemerkung 1: Man kann zeigen, daß die mit dem Stromvektor j = [ j1 , . . . , jn ]T gebildeten 10 genauer eine nicht geschlossene oder eine geschlossene Jordankurve (s. hierzu Burg/Haf/Wille (Vektoranalysis) [28].

4.1 Technische Strukturen

371

Gleichungen A j (t) = 0

und

C j (t) = 0

»gleichwertig« sind, d.h. daß jedes j (t) welches die linke Gleichung erfüllt, auch die rechte Gleichung erfüllt und umgekehrt. (Der Beweis wird hier aus Platzgründen übergangen, da er weitere Überlegungen bzgl. des Ranges von Matrizen erfordert. An Hand der skizzierten Netzwerke leuchtet die Gleichwertigkeit der beiden Gleichungen aber ein.) Bemerkung 2: Wir haben gesehen, daß sowohl die Numerierung als auch die Orientierung der Zweige (Kanten) eines Graphen beliebig ist; ebenso die Numerierung der Fundamentalschnitte. Dennoch ist es oft zweckmäßig, die Fundamentalschnitte so zu numerieren, daß diese Nummern mit den Nummern der jeweils geschnittenen Baumzweige übereinstimmen. Dies führt dann dazu, daß in C eine Einheitsmatrix auftritt und daher der Rang von C sofort abgelesen werden kann (s. nachfolgende Beispiele).

Fig. 4.9: Zur Bestimmung der Schnittmengenmatrix C

Beispiel 4.2: Wir betrachten wieder das Netzwerk aus Beispiel 4.1, wählen den Baum aus Fig.4.8a) und gehen zur Numerierung und Orientierung der Fundamentalschnitte im Sinne von Bemerkung 2 vor (vgl. Fig.4.9: Die Matrix A lautet in diesem Fall ⎡ 1 0 0 0 ⎢−1 1 1 0 A := ⎢ ⎣0 0 −1 −1 0 −1 0 1

⎤ 1 0⎥ ⎥. 0⎦ −1

372

4 Anwendungen

Das Format von A ist (m, n) = (4,5) ihr Rang ist 3 (vgl. Üb. 4.1). Nun bestimmen wir die Schnittmengen Matrix C: Wegen (4.34) ergibt sich k1 ⎡ C1 1 C = [C pq ] = C2 ⎣0 C3 0 

k2 k3 k4 k5  ⎤ 0 0  0 1  1 0 −1 1 ⎦ = E 0 1 1 0     

=E

F



.

(4.35)

=F

Wir erkennen: C besitzt im Gegensatz zu A das Format (m, ˜ n) = (3,5) (eine überzählige Zeile in A ist entfernt!). Ihr Rang läßt sich aus (4.35) unmittelbar ablesen: r = Rang C = 3 . Nach Satz 3.53 d) ff., Abschn. 3.8.1 besitzt daher die Kirchhoffsche Stromgleichung C j = 0, j = [ j1 , . . . , j5 ]T genau n − r = 5 − 3 = 2 linear unabhängige Lösungen. (Vgl. auch Üb. 4.1).

Beispiel 4.3: Wir legen den orientierten Graphen gemäß Fig. 4.10 mit m = 6 Ecken und n = 9 Zweigen (Kanten) zugrunde und bestimmen eine geeignete Schnittmengen-Matrix. Hierzu wählen wir den in Fig. 4.11 dargestellten Baum und die dort angegebenen orientierten Fundamentalschnitte. Aus Fig. 4.11 ergibt sich wegen (4.34) die Schnittmengen-Matrix

Fig. 4.10: Graph eines elektrischen Netzwerkes

C1 C2 C = [c pq ] = C3 C4 C5

⎡ ⎢ ⎢ ⎢ ⎢ ⎣

1 0 0 0 0

0 1 0 0 0

0 0 1 0 0

0 0 0 1 0

Fig. 4.11: Zugehöriger Baum mit orientierten Fundamentalschnitten

0 0 0 0 1

0 0 0 −1 1

0 −1 1 1 0

1 1 0 0 0

1 0 1 0 1

k1 k2 k3 k4 k5

k6

k7

k8

k9

⎤ ⎥ ⎥ ⎥ ⎥ ⎦

4.1 Technische Strukturen

373

vom Format (m, ˜ n) = (5,9) und dem Rang r = 5. Nach Abschn. 3.8.1 besitzt daher die Kirchhoffsche Stromgleichung C j = 0 genau n −r = 9−5 = 4 linear unabhängige Lösungsvektoren. Bei der Kirchhoffschen Maschengleichung (4.32) Bu(t) = 0 ist eine analoge Vorgehensweise möglich: Die Maschen-Matrix B läßt sich ebenfalls durch Elimination überzähliger Reihen »entrümpeln«. Wir gehen hierzu von einem gerichteten Graphen G, mit den Ecken e1 , . . . , em und den Kanten k1 , . . . , kn aus. Außerdem wählen wir aus G einen Baum aus (durch Entfernen entsprechender Kanten), der alle Ecken des Graphen enthält. Der Graph bestehe aus den s Maschen (Kreisen) l1 , . . . , ls , denen wir die Orientierung der entfernten Kanten geben (s. Fig. 4.12). Nun bilden wir die Mascheninzidenz-Matrix M := [µ pq ]

(4.36)

vom Format (s, n) mit den Elementen ⎧ +1 , wenn die Orientierung der Masche l p mit der Orientierung der ⎪ ⎪ ⎪ ⎨ Kante kq übereinstimmt und kq zur Masche l p gehört µ pq := ⎪ −1 , wenn die Orientierungen entgegengesetzt sind ⎪ ⎪ ⎩ 0 , wenn die Kante kq nicht zur Masche l p gehört.

(4.37)

Die Kirchhoffsche Maschengleichung lautet dann M u(t) = 0.

(4.38)

Diese Gleichung und die Maschengleichung Bu(t) = 0 sind gleichwertig; (4.38) enthält jedoch keine überzähligen Anteile mehr. Wir verdeutlichen die Konstruktion der MascheninzidenzMatrix anhand des in Beispiel 4.3 betrachteten Graphen. Unsere obigen Überlegungen führen zur nebenstehenden Fig. 4.12.

Fig. 4.12: Zur Bestimmung der Mascheninzidenz-Matrix M

374

4 Anwendungen

Mit (4.37) erhalten wir daher ⎡

k1

k2

k3

0 0 l1 0 1 l2 ⎢ M = [µ pq ] = ⎢ l3 ⎣ −1 −1 −1 0 l4 

k4

k5 k6 k7 k8 k9

0 1 −1 −1 −1 0 0 0 0 −1 0 −1  

1 0 0 0 

=:−F T 11

0 1 0 0

0 0 1 0 

=:E

⎤ 0  0 ⎥ ⎥ = −F T 0 ⎦ 1 .

E



.

Offensichtlich gilt: r = Rang M = 4. Nach Abschn. 3.8.1 besitzt daher die Gleichung Mu = 0 genau n − r = 9 − 4 = 5 linear unabhängige Spannungsvektoren als Lösung. Bemerkung: Für ein (zusammenhängendes) Netzwerk mit m Knoten und n Zweigen läßt sich einfach nachweisen, daß die besprochenen Reduktionen auf m−1

Stromgleichungen

und n−m+1

Spannungs-(Maschen)gleichungen

führen. Die von uns betrachteten Beispiele bestätigen dies (prüfen!). Zweigströme und Zweigspannungen bei vorgegebener Belastung Wir wenden uns nun dem eigentlichen Anliegen der Netzwerkanalyse zu: der Bestimmung von Zweigströmen und -spannungen bei bekannter Belastung. Zur Vereinfachung nehmen wir an, daß diese zu ei ωt proportional ist (i: Imaginäre Einheit). Für die passiven elektrischen Elemente führen wir die folgenden Matrizen ein (1) Für die Ohmschen Widerstände12 R := diag[R1 , . . . , Rα ] .

(4.39)

(2) Für die Kondensatoren   1 1 −1 ,..., . C := diag Cα+1 Cα+β (3) Für die Spulen ⎡ L α+β+1,α+β+1 ⎢ .. L := ⎣ . L γ ,α+β+1

··· ···

⎤ L α+β+1,γ ⎥ .. ⎦. . L γ ,γ

11 Wir verwenden hier die in der Technik übliche Bezeichnung. 12 Georg Simon Ohm (1789 – 1854), deutscher Experimentalphysiker.

(4.40)

(4.41)

4.1 Technische Strukturen

375

Hierbei bezeichnen Ri die Ohmschen Widerstände, Ci die Kapazitäten und L ik die Induktivitäten der im Netzwerk vorhandenen elektrischen Elemente. Matrix (4.41) ist symmetrisch: L ik = L ki und bringt zum Ausdruck, daß Wechselwirkungen zwischen den Spulen angenommen werden. Wir fassen diese Matrizen durch direkte Summenbildung zur Impedanz-Matrix  Z := R ⊕

 1 −1 ⊕ (iωL) C iω

(4.42)

zusammen. Beispiel 4.4: Für das in Fig. 4.13 skizzierte Netzwerk ergibt sich mit (4.42) die Impedanz-Matrix ⎡

R1 ⎢0 ⎢ ⎢ ⎢0 ⎢ Z=⎢ ⎢0 ⎢ ⎢ ⎣0 0

0 R1 0

0 0 1 i ωC3

0

0

0 0

0 0

0 0

0 0

0

0

1 i ωC4 0 0

0 i ωL 5 i ωL 65

0 0



⎥ ⎥ ⎥ 0 ⎥ ⎥ ⎥. 0 ⎥ ⎥ ⎥ i ωL 56 ⎦ i ωL 6

Fig. 4.13: Elektrisches Netzwerk bei Belastung

Mit Hilfe der durch (4.42) erklärten Impedanz-Matrix Z läßt sich das Ohmsche Gesetz in verallgemeinerter Form angeben: u − u G = Z( j − j G ) .

(4.43)

Hierbei weist der Index G auf Quellgrößen (Strom-bzw. Spannungsquellen) hin. Die zu Z inverse Matrix (man nennt sie Admittanz-Matrix) bezeichnet man mit Y . Multipliziert man (4.43) von links mit Y , so ergibt sich die Beziehung

376

4 Anwendungen

j − j G = Y (u − u G ) .

(4.44)

Es bezeichne C wieder die Schnittmengen-Matrix und M die Mascheninzidenz-Matrix. Setzen wir (4.43) in die Maschengleichung Mu = 0 ein, so stehen uns mit C j = 0 und

M Z j = M(Z j G − u G )

(4.45)

genau so viele Gleichungen zur Verfügung, wie wir zur Berechnung des Stromvektors j benötigen. Übung 4.3: Bestimme die Stromverteilung für das in Fig. 4.13 dargestellte Netzwerk.

Fig. 4.14: Modell-Roboter

4.2

Roboter-Bewegung

4.2.1

Einführende Betrachtungen

Wir gehen von einer endlichen Menge von Segmenten (Gliedern) im R3 aus, die durch gewisse Gelenke paarweise miteinander verbunden sind und eine offene Kette (einen Verbund), etwa gemäß Fig. 4.14, bilden. Dabei setzen wir voraus, daß es sich bei diesen Segmenten um starre Körper handelt, d.h. daß sich der Abstand von beliebigen Segmentpunkten bei einer Bewegung des Segmentes nicht ändert. Das eine Ende dieses Verbundes ist durch die raumfeste Basis gegeben, während sich am anderen Ende der Greifer befindet. Die Bewegungsmöglichkeiten des Roboters hängen von der Art der Verbindung der einzelnen Segmente ab und setzen sich im allgemeinen aus Translations- und aus Drehbewegungen zusammen. Beispiele für mögliche technische Realisierungen zeigen die Fig. 4.15 und 4.16 in schematischer Darstellung. Eine weitere Realisierung ist durch den E-2-Manipulator gegeben

4.2 Roboter-Bewegung

377

(s. Fig. 4.21 am Ende von Abschn. 4.2.2)13 . Bauteile mit rechteckigem Querschnitt weisen darauf hin, daß keine Drehungen um eine Achse senkrecht zum Querschnitt durchführbar sind; anders bei denjenigen mit kreisförmigem Querschnitt, die solche Drehungen gestatten.

Fig. 4.15: Ellbogen-Manipulator

Fig. 4.16: Stanford-Manipulator

Die Beschreibung möglicher Bewegungsformen des Roboters beinhaltet zwei Aspekte: einen kinematischen und einen dynamischen. Im Folgenden beschränken wir uns auf die Untersuchung einiger einfacher kinematischer Fragestellungen, also auf solche, die die Geometrie der Bewegungen des Roboters zum Gegenstand haben. Die Voraussetzung, daß die einzelnen Roboter-Segmente als starre Körper aufgefaßt werden, hat zur Folge, daß sich der Übergang von einer Segmentlage in eine andere (s. Fig. 4.17) mit Hilfe von abstandserhaltenden Abbildungen (s. Abschn. 3.5.3) beschreiben läßt. Nach Satz 3.54 setzt sich eine solche Abbildung aus einer Drehung14 (ihr entspricht eine orthogonale Matrix) und einer Parallelverschiebung (durch einen Vektor berücksichtigt) zusammen (s. Fig. 4.18). 4.2.2

Kinematik eines (n + 1)-gliedrigen Roboters

1. Zusammenhang zweier benachbarter Segmente Wir betrachten die in Fig. 4.19 dargestellte Situation. Mit zwei benachbarten Segmenten verbunden sei jeweils ein körperfestes Bezugssystem15 0, e1 , e2 , e3 ' bzw. 0 , e 1 , e 2 , e 3 '. Dabei sind e1 , e2 , e3 ' und e 1 , e 2 , e 3 ' Orthonormalbasen im R3 und überdies Rechtssysteme (s. Abschn. 1.2.4). Ferner sind 0 und 0 die Ursprünge (Nullpunkte) des jeweiligen Koordinatensystems. 13 Zahlreiche weitere Beispiele finden sich z.B. in [15] und in [113]. 14 vgl. hierzu: »Axiale Drehungen« in Abschn. 3.9.3. 15 Da wir von starren Körpern ausgehen, ist die Gestalt der Segmente für deren Bewegung ohne Bedeutung. Es genügt die Zuordnungen der beiden Koordinatensysteme zu betrachten.

378

4 Anwendungen

Fig. 4.17: Bewegung eines StarrkörperSegmentes

Fig. 4.18: Zusammensetzung einer Starrkörperbewegung aus Drehung und Parallelverschiebung

Fig. 4.19: Zwei benachbarte Segmente

Ein Punkt P des dreidimensionalen Raumes wird im ersten Koordinatensystem durch den Orts3 3 $ $ xi ei , im zweiten durch den Ortsvektor x = xi ei , beschrieben. Wir drücken vektor x = i=1

dies kurz aus durch ⎡ ⎤ x1 x = ⎣x2 ⎦ bzw. x3

i=1

⎡ ⎤ x1 x = ⎣x2 ⎦ . x3

Mit Hilfe von Abschn. 3.9.7, Beziehung (3.384): x = AT x + b

(4.46)

lassen sich die Koordinaten von x umrechnen. Dabei beschreibt der Vektor b die Position des Ursprungs 0 von System 0 ; x1 , x2 , x3 ' in den Koordinaten von System 0; x1 , x2 , x3 '. Matrix AT (die zur Übergangsmatrix A transponierte Matrix) beschreibt die Drehung des in den Ursprung 0 von System 0; x1 , x2 , x3 ' parallel verschobenen Systems 0 ; x1 , x2 , x3 } in die mit System 0; x1 , x2 , x3 ' zur Deckung gebrachte Lage. Wir greifen nun aus dem Segment-Verbund S0 (Ba-

4.2 Roboter-Bewegung

379

sis), S1 , S2 , . . . , Sn (Greifer) zwei beliebige benachbarte Segmente heraus: Sk−1 , Sk . Die mit ihnen (wie oben) körperfest verbundenen Koordinatensysteme bezeichnen wir jetzt kurz mit System (k − 1)

bzw.

System k.

(4.47)

Die (4.46) entsprechende Beziehung lautet jetzt x k−1 = Ak x k + bk .

(4.48)

Dabei haben wir für die zugehörige Matrix einfach die Schreibweise Ak (also ohne Transpositionszeichen!)benutzt und uns damit einer in der Robotik (=Robotertheorie) üblichen Bezeichnung angepaßt. Durch (4.48) läßt sich die Lage von Segment Sk (genauer: das mit Sk verbundene System k) in den Koordinaten von System (k −1) ausdrücken, also durch die »Bestimmungsstücke« Ak und bk , die wir zu einem Paar ( Ak , bk )

(4.49)

zusammenfassen. Für die Verkettung aller Segmente, bei der n Abbildungen der Form (4.48) hintereinander geschaltet werden müssen, erweist sich der »Verschiebungsanteil« bk als ungünstig. Daher hat sich in der Robotik eine Vorgehensweise eingebürgert, bei der anstelle der Paare ( Ak , bk ), bestehend aus den Matrizen Ak ∈ Mat(3; R) und den Vektoren bk ∈ R3 , aus Ak und bk gebildete größer-formatige Matrizen konstruiert werden. Um den Aufbau dieser Matrizen zu erläutern, gehen wir von einem Paar ( A, b) aus. Mit ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ a11 a12 a13 b1 0 A = ⎣a21 a22 a23 ⎦ , b = ⎣b2 ⎦ , 0 = ⎣0⎦ 0 a31 a32 a33 b3 bilden wir eine neue Matrix T nach folgendem Muster: ⎡ ⎤ a11 a12 a13 b1   ⎢ a21 a22 a23 b2 ⎥ A b ⎥ T := A = T =⎢ ⎣ a31 a32 a33 b3 ⎦ 0 1 0 0 0 1

(4.50)

Wir beachten: T ist aus Mat(4; R)! Liegt nun die inhomogene Gleichung x = Ax + b

(4.51)

vor, so läßt sich diese in eine (»erweiterte«) homogene Gleichung umformen: Hierzu erweitern wir die Vektoren ⎡ ⎤ ⎡ ⎤ x1 x1 x = ⎣x2 ⎦ bzw. x = ⎣x2 ⎦ (4.52) x3 x3

380

4 Anwendungen ∗



zu Vektoren x bzw. x aus R4 , indem wir ihre vierte Koordinate 1 setzen: ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ x x1 x x1 ⎥ ⎢ ⎥ ⎢x2 ⎥ ⎢ ⎥ ⎢ x ∗ ∗ ⎥ = ⎢ ⎥ bzw. x = ⎢ ⎥ = ⎢ 2 ⎥ . x=⎢ ⎣ ⎦ ⎣x3 ⎦ ⎣ ⎦ ⎣x ⎦ 3 1 1 1 1

(4.53)

Legen wir jetzt unseren Betrachtungen die homogene Gleichung ∗



x = T x

(4.54)

zugrunde, so sehen wir, daß sie die ursprüngliche inhomogene Gl. (4.51) »enthält«: Wir bestim∗ men zunächst T x als Produkt einer Block-Matrix mit dem Vektor (Formel (3.31), Abschn. 3.2.4 gilt hier entsprechend!):      A b x Ax + b ∗ . = T x = T 1 1 1 0 Damit lautet (4.54)     x Ax + b , = 1 1 d.h. die ersten drei »Koordinaten-Gleichungen« in (4.54) liefern gerade (4.51).

2. Verkettung aller Verbund-Segmente Unser Modell-Roboter bestehe aus einem Verbund von (n + 1) Segmenten (n ∈ N) : S0 , S1 , . . . , Sn . Segment S1 sei mit der Basis S0 verbunden, und an Sn befinde sich der Greifer. Mit jedem Segment Sk (k = 1, . . . , n) sei wieder ein körperfestes Koordinatensystem k (s. Teil 1) verbunden. Der Roboter-Basis S0 weisen wir den Koordinatenursprung 0 und die Standardbasis e1 , e2 , e3 ' zu. Wir wollen nun das Zusammenwirken aller Verbund-Segmente, beginnend bei der Basis S0 des Roboters, beschreiben. Der Zusammenhang zwischen der Basis S0 und dem Segment S1 ist nach unseren vorhergehenden Überlegungen mit den dort verwendeten Bezeichnungen durch das Paar ( A1 , b1 ) bzw.



durch die erweiterte Matrix

A T 1 = T1 0

b1 1



hergestellt, genauer: die Lage des mit S1 verbundenen Systems 1 bezogen auf das mit der Basis S0 verbundenen Systems 0.

4.2 Roboter-Bewegung

381

Nun nehmen wir ein weiteres Segment hinzu: S2 . Die Lage von S2 bezogen auf System 1 wird durch x 1 = A2 x 2 + b2 ,

(4.55)

also durch das Paar ( A2 , b2 ) ausgedrückt; die Lage von S1 bezogen auf System 0 durch x = A1 x 1 + b1

(4.56)

also durch das Paar ( A1 , b1 ) . Setzen wir (4.55) in (4.56) ein, schalten wir also die durch (4.55) und (4.56) erklärten Abbildungen hintereinander, so ergibt sich für die Lage von S2 bezogen auf System 0 x = A1 ( A2 x 2 + b2 ) + b1 = A1 A2 x 2 + A1 b2 + b1 .

(4.57)

Dem Verbund der Segmente S0 , S1 , S2 entspricht also das Paar ( A1 A2 , A1 b2 + b1 )

(4.58)

bzw. die erweiterte Matrix   A1 A2 A1 b2 + b1 . 0T 1

(4.59)

Bilden wir das Produkt der Block-Matrizen     A b1 A b2 , T 2 = T2 T 1 = T1 0 1 0 1 mit Hilfe von Formel (3.31), Abschn. 3.4.2:     A b1 A2 b2 A1 A2 T 1 T 2 = T1 = 0T 1 0T 0 1

 A1 b2 + b1 , 1

so zeigt ein Vergleich dieser Beziehung mit (4.59), daß die Matrix (4.59) gerade durch T 1 T 2 gegeben ist. Hier zeigt sich deutlich der Vorteil des Arbeitens mit erweiterten Matrizen: Der Hinzufügung eines weiteren Segmentes Sk entspricht die Blockmultiplikation von rechts mit T k . Mittels vollständiger Induktion ergibt sich (wir überlassen diesen einfachen Nachweis dem Leser): Das Zusammenwirken der (n + 1) Verbund-Segmente S0 (Basis), S1 . . . , Sn (Greifer) eines (n + 1)-gliedrigen Modell-Roboters wird beschrieben durch die erweiterte Matrix   A1 A2 . . . An A1 A2 . . . An−1 bn + . . . + A1 b2 + b1 . (4.60) T := T 1 T 2 . . . T n = 0T 1

382

4 Anwendungen

Bemerkung 1: Mit Hilfe der Matrix (4.60) lassen sich Lage und Orientierung des mit dem Greifer Sn verbundenen Koordinatensystems n unter Berücksichtigung der Verkettung aller RoboterSegmente in den Koordinaten des mit der Basis S0 verbundenen Koordinatensystems 0 ausdrücken: Durch A1 A2 . . . An wird die Drehung und durch A1 A2 . . . An−1 bn + . . . + A1 A2 b3 + A1 b2 + b1 die Verschiebung von System n in Bezug auf das System 0 berücksichtigt. Bemerkung 2: Die in (4.60) auftretenden Matrizen Ak und Vektoren bk (k = 1, . . . , n) hängen von der Bauart des Roboters ab. Sind sie bekannt, so ist T und damit die Kinematik des Roboters festgelegt.

Fig. 4.20: Festlegung der Koordinatensysteme

Wir verdeutlichen unsere Überlegungen an einem in den Anwendungen häufig auftretenden Spezialfall Gegeben sei wieder ein (n + 1)-gliedriger Roboter. Die Gelenkverbindung zwischen Segment Sk−1 und Sk (k = 2, . . . , n) besitze jeweils nur einen Freiheitsgrad der Bewegung, die Basis S0 keinen. Dies hat zur Folge, daß der Roboter insgesamt n Freiheitsgrade der Bewegung hat. Die Bewegungen der einzelnen Segmente können aus Drehbewegungen um eine feste Achse oder aus Translationen bestehen. Wie oben sei mit jedem Segment Sk ein Koordinatensystem k fest verbunden, dessen Lage und Orientierung das Segment fixieren. Für unser Beispiel verwenden wir Koordinatensysteme nach der Denavit-Hartenberg-Konvention16 gemäß Fig. 4.20. Diese benutzt 16 s. z.B.[15], p.110

4.2 Roboter-Bewegung

383

zur Beschreibung der Lage von Sk vier Parameter: die Abstände ak , dk und die Winkel αk , θk . Führt Sk eine Rotation aus, so sind ak , dk und αk konstant, während θk variabel ist. Bei Translation sind ak , αk und θk fest, aber dk variabel. Lage und Orientierung der Koordinatenachsen von −−−−→ System k bezüglich System (k − 1) (ohne Berücksichtigung der Parallelverschiebung 0k−1 0k sind durch die Winkel αk und θk festgelegt, genauer:durch die »Richtungscosinus-Matrix« ⎡ ⎤ cos θk − cos αk sin θk sin αk sin θk cos αk cos θk − sin αk cos θk ⎦ (k = 1, . . . , n). Ak = ⎣ sin θk (4.61) 0 sin αk cos αk Sie beschreibt die Drehung von Segment Sk in Bezug auf System (k − 1). Nach unseren vorhergehenden Überlegungen erhalten wir bei Zusammenwirken von S0 , S1 . . . , Sk−1 , Sk . . . , Sn für das Segment Sn (Greifer), bezogen auf das mit der Basis S0 verbundene Koordinatensystem die »Richtungscosinus-Matrix« A1 A2 . . . An .

(4.62)

Wir haben noch die Translationen zu berücksichtigen: Sei wieder −−−−→ bk = 0k−1 0k (k = 1, . . . , n) .

(4.63)

Die Koordinaten dieser Vektoren lauten im System (k − 1) (vgl. Fig. 4.20): ⎡ ⎤ dk cos θk bk = ⎣ dk sin θk ⎦ . ak Damit ergeben sich die erweiterten Matrizen T k zu ⎡ ⎤ sin αk sin θk dk cos θk cos θk − cos αk sin θk ⎢ sin θk cos αk cos θk − sin αk cos θk dk sin θk ⎥ ⎢ ⎥ ⎣ 0 sin αk cos αk ak ⎦ 0 0 0 1

(k = 1, . . . , n) .

(4.64)

(4.65)

Die Bewegung von Segment Sn (Greifer) bezüglich des mit der Basis S0 verbundenen Koordinatensystems kann dann wegen (4.60) mit Hilfe der Matrix T = T 1T 2 . . . T n .

(4.66)

beschrieben werden. Die Beziehungen (4.65) und (4.66) definieren somit die Kinematik des betrachteten Roboters. Beispiel 4.5: Gegeben sei ein dreigliedriger Roboter: S0 , S1 , S2 . Die Lage von S1 bezüglich S0 sei durch die vier Parameter a1 = 0 , d1 = 1 , α1 = 90◦ , θ1 = 0◦ . festgelegt, die Lage von S2 bezüglich S1 durch a2 = 1 , d2 = 1 , α2 = 0◦ , θ2 = 45◦ .

384

4 Anwendungen

Mit (4.65) ergeben sich dann die Matrizen ⎡

1 ⎢0 T1 = ⎢ ⎣0 0

0 0 1 0

0 −1 0 0

⎡1√



2

⎢2 ⎢ ⎢1√ T2 = ⎢ ⎢2 2 ⎢ ⎣ 0 0

1 0⎥ ⎥, 0⎦ 1

1√ 2 2 1√ 2 2 0 0



1√ ⎤ 2 2 ⎥ ⎥ 1√ ⎥ 2⎥ 2 ⎥ ⎥ 1 ⎦ 1

0 0 1 0

Die Lage von S2 bezogen auf das mit S0 verbundene Koordinatensystem wird nach (4.66) durch ⎡ 1√ 2 ⎢ 2 ⎢ ⎢ 0 T = T 1T 2 = ⎢ ⎢ 1√ ⎢ ⎣ 2 2 0

1√ 2 0 2 0 −1 1√ 2 0 2 0 0



1√ 2+1 2 −1 1√ 2 2 1

⎤ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎦

(4.67)

beschrieben: Wie bisher kennzeichnen wir die mit S0 , S1 , S2 körperfest verbundenen Koordinatensysteme durch 0; e1 , e2 , e3 ',

(1)

(1)

(1)

01 ; e1 , e2 , e3 ',

(2)

(2)

(2)

02 ; e1 , e2 , e3 '.

Der Koordinatenursprung 02 , bezogen auf System 0; e1 , e2 , e3 ' ist dann wegen (4.67) durch   1√ 1√ 02 = 2 + 1, −1, 2 (4.68) 2 2 (2)

(2)

(2)

(2)

(2)

(2)

gegeben. Die Basisvektoren e1 , e2 , e3 beschreiben im System 02 ; e1 , e2 , e3 ' drei Punkte: P1 , P2 , P3 . Die Koordinaten dieser Punkte im System 0; e1 , e2 , e3 ' ergeben sich wie folgt: Gehen wir von den erweiterten Basisvektoren ⎡ (2) ⎤ ⎡ ⎤ ⎡ (2) ⎤ ⎡ ⎤ ⎡ (2) ⎤ ⎡ ⎤ 1 0 0 e1 e2 e3 ⎢ ⎥ ⎢0⎥ ⎢ ⎥ ⎢1⎥ ⎢ ⎥ ⎢0⎥ ∗ (2) ∗ (2) ∗ (2) ⎥ ⎢ ⎥ ⎥ ⎢ ⎥ ⎥ ⎢ ⎢ ⎢ ⎢ e1 = ⎣ ⎦ = ⎣ ⎦ , e2 = ⎣ ⎦ = ⎣ ⎦ , e3 = ⎣ ⎦ = ⎣ ⎥ 0 0 1⎦ 1 1 1 1 1 1 aus, und bestimmen wir mit (4.67) ∗ (2) T e1

⎤ ⎡√ 2+1 ⎢ −1 ⎥ √ ⎥, =⎢ ⎣ 2 ⎦ 1

∗ (2) T e2

⎤ 1 ⎢ −1 ⎥ √ ⎥ =⎢ ⎣ 2⎦ , 1

⎤ 2+1 ⎥ −2 √ ⎥ ⎥, 1 2 2 ⎦

⎡1√



∗ (2) T e3

⎢ ⎢ =⎢ ⎣

2

(4.69)

1

so drücken die ersten drei Koordinaten dieser Vektoren die Lage von P1 , P2 , P3 in den Koordinaten des mit der Basis S0 verbundenen Koordinatensystems aus. Zusammen mit(4.68)sind damit

4.2 Roboter-Bewegung

385

Lage und Orientierung des Greifer-Koordinatensystems in dem mit der Basis S0 des GreiferKoordinatensystems in dem mit der Basis S0 verbundenen Koordinatensystems ausgedrückt. verbundenen Koordinatensystems ausgedrückt.

Fig. 4.21: E-2-manipulator

Wir wollen nun untersuchen, welche neue Lage der Greifer S2 einnimmt (d.h. welche neue Lage 02 und die Punkte P1 , P2 , P3 einnehmen), wenn S1 eine Translationsbewegung durchführt: d1 = 1 gehe in d1 = 2 über und S2 eine Rotationsbewegung durchführt: θ2 = 45◦ gehe in θ2 = 90◦ über. Den Matrizen T 1 , T 2 entsprechen nun die Matrizen ⎡ ⎤ ⎡ 1 0 0 2 0 −1 0 ⎢0 0 −1 0⎥ ⎢1 0 0 ⎥ ⎢ T1 = ⎢ ⎣0 1 0 0⎦ , T 2 = ⎣0 0 1 0 0 0 1 0 0 0

⎤ 0 1⎥ ⎥. 1⎦ 1

386

4 Anwendungen

Die gesuchte neue Lage des Greifers ist dann wegen (4.66) durch ⎤ ⎡ 2 0 −1 0 ⎢ 1 0 −1 −1 ⎥ ⎥ T = T 1 T 2 = ⎢ ⎣ 1 0 0 1 ⎦ 0 0 0 1

(4.70)

gegeben: Der Koordinatenursprung durch 0 2 = (2, −1,1), während sich die Lage der Punkte P1 , P2 , P3 aus den ersten drei Koordinaten der folgenden Vektoren ergibt: ⎤ 2 ⎢−1⎥ ⎥ =⎢ ⎣2⎦, 1 ⎡

∗ (2)

T e1

⎤ ⎡ ⎤ 1 2 ⎢−1⎥ ⎢−2⎥ ∗ (2) ⎥ ⎢ ⎥ =⎢ ⎣ 1 ⎦ , T e3 = ⎣ 1 ⎦ . 1 1 ⎡

∗ (2)

T e2

(4.71)

Eine mögliche technische Realisierung des oben als Spezialfall behandelten Roboters ist durch den in Fig.4.21 skizzierten »Argonne National Laboratory E-2-manipulator« gegeben (s. hierzu auch [15], p. 292). Bemerkung: Weitere vertiefende Untersuchungen der Roboter-Bewegung finden sich z.B. in [15]. Hier werden auch die dynamischen Aspekte berücksichtigt; ebenso in [113].

Anhang

A

Lösungen zu den Übungen

Zu den mit ∗ versehenen Übungen werden Lösungswege skizziert oder Lösungen angegeben.

Zu Kapitel 1 Zu Übung 1.2: F∆ = 23. Zu Übung 1.5: r (ϕ) =

    1 4 , arctan − < ϕ < π + arctan − 12 . 2 sin ϕ + cos ϕ 2

−→ . Zu Übung 1.8: |0M| = 5,148.         . −11446 . 11446 . −11446 . 11446 Zu Übung 1.9: F 1 = N, F 2 = N, Q 1 = N, Q 2 = N. −19825 −9605 0 0 Zu Übung 1.11: d ≥ 0,91m. π Zu Übung 1.12: β = . 2 . Zu Übung 1.13: t = 152,8s. . Zu Übung 1.14: T = 6s.

  0,11 cos ωt + 0,25 sin ωt N Zu Übung 1.15: F = −0,084 0,11 sin ωt + 0,25 cos ωt   (1 + 0,25t) cos ωt − 0,11 + sin ωt −8,82 · 10−4 N (Corioliskraft). (1 + 0,25t) sin ωt + 0,11 + cos ωt   −3 N. Zu Übung 1.16: F = 14 · 10−4 2 Zu Übung 1.18: E kin = 20233Nm. . . . . Zu Übung 1.21: a) ϕ = 49,4◦ ; b) ϕ = 60,26◦ ; c) ϕ = 23,84◦ ; d) ϕ = 20,8◦ . Zu Übung 1.23: Inneres Produkt der beiden Vektoren ist Null.   √ √ 1 11 , b) h A = 3 5, h B = 3,72, h C = 2 5. Zu Übung 1.24: a) F = 15, s = −4 3 d d Zu Übung 1.25: 1 = 5 cm, 2 = 9,57 cm. 2 2 ◦ β = 29,9◦ , γ = 93,8◦ , (Cosinussatz) Zu Übung 1.26: α = 56,3 ,√ sa = 4,03, sb = 5,32, sc = 8, (Parallelogramm-Gleichung). Zu Übung 1.27: Man zerlege das Fünfeck in Dreiecke. Zu Übung 1.28: Lege die Ecken des Dreiecks als Ortsvektoren r 0 , r 1 , r 2 ins Koordinatensystem, berechne den Schwerpunkt s und dann r = max{|s − r i |, i = 0,1,2}. 1 410 Zu Übung 1.29: a) ξ = −2, η = 7, b) I = A, U = V. 13 13 Zu Übung 1.30: F = 3a + 5b + 4c.

390

A Lösungen zu den Übungen

  15 Zu Übung 1.32: v = 1 + √ u. 6 Zu Übung 1.33: α = 57,59◦ , β = 36,49◦ , γ = 104,94◦ , αx,y = 14,94◦ , β y,z = 32,41◦ , γz,x = 53,50◦ . . Zu Übung 1.34: F = 2,5[0,5; cos 75◦ ; cos 34,26◦ ]T N. Zu Übung 1.35: −241; 0; −30. Zu Übung 1.38: α = 80,26◦ . Zu Übung 1.40: Schreibe die rechte Seite als −c × (a × b) und wende den Grassmannschen Entwicklungssatz auf beide Gleichungsseiten an. Zu Übung 1.42: M = [34,3, −29]T Nm, D = Zu Übung 1.43: vF =

1 234 + 16 cos2 t. 2

28 [6, −1,5]T Nm. 31

. Zu Übung 1.46: F = 22,34. Zu Übung 1.47: a)

F AB = 10−2 [2,4; −2,4; 0]T N ,

F BC = 10−2 [2,34; −1,35; 1,32]T N , b) 0z = [0; 0; 1,967 · 10−3 ]T Nm.

F C D = −F AB F D A = −F BC .

Zu Übung 1.48: Sinnvoll: (b) (d), (f); sinnlos: (a), (c), (e). Zu Übung 1.49: (a) 0, (b) −2a(b × c), (c) 0. Zu Übung 1.50: V = 1130,5cm3 . Zu Übung 1.51: e1 = [− sin 70◦ ; cos 70◦ ; 0]T , e2 = [− cos 70◦ sin 60◦ ; − sin 70◦ sin 60◦ ; 0,5]T , e3 = [0,5 cos 70◦ ; 0,5 sin 70◦ ; sin 60◦ ], ξ = −8533 km, η = 4633 km, ρ = 71770 km. Zu Übung 1.53: d = √

37 1470

.

Zu Übung 1.55: r = [5,9,4]T + λ[7, −16,9]T . Zu Übung 1.56: a) x 0 =

  4 1 14 2 T . [11, −2,10]T , b) ϕ = 53,13◦ , c) r = x 0 + λ · − , , 9 3 15 15

Zu Kapitel 2

√ Zu Übung 2.2: (1/ 394969) · [−260,2,122,559]T · r = 0 393 2137 1853 4001 , x2 = , x3 = , x4 = − . 2389 2389 2389 2389 Zu Übung 2.4: x1 = 0,208 560 818, x2 = 0,029 878 822, x3 = −0,662 097 39.   1 3 T Zu Übung 2.6: a) x = ,0,0, − + λ[−13,17,0, −46]T + µ[20,0,17,59]T , 17 17 b) x1 = x2 = 1. Zu Übung 2.3: x1 =

Zu Übung 2.8: Die Kleinsche Vierergruppe hat genau 3 echte Untergruppen. Zu Übung 2.10: Elemente von G/N : e = {−I, D j D}, a = {W1 , W2 , W3 } ⇒ ee = aa = e, ae = ea = a. Zu Übung 2.12: Zu zeigen ist hauptsächlich: Jedes 0 = a ∈ Z3 hat ein Inverses a −1 .

391

Zu Übung 2.13: Die Gesetze gemäß Def. 2.26 sind erfüllt außer (S4): 1x = x ⇒ V ist kein Vektorraum über K. Zu Übung 2.14: Vektorräume: (b), (c), keine Vektorräume: (a), (d). Zu Übung 2.15: Zu zeigen ist: aus a0 +

n 

(ak cos kx + bk sin kx) = 0 folgt a0 = 0, ak = bk = 0 für

k=1

k = 1, . . . , n, siehe dazu Burg/Haf/Wille (Analysis) [27], (4.63). Zu Übung 2.16: a) dim V = 10, b) dim V = 9. Zu Übung 2.17: Sei dim U = s, dim V = t ⇒ Es gibt Basen BU := (a1 , . . . , as ) für U und BV := (as+1 , . . . , as+t ) für V . Sei weiterhin dim(U ∩ V ) = k ⇒ BU ∩V = (b1 , . . . , bk ). Mit Satz 2.20 (Austauschsatz von Basiselementen) und Umbenennung folgt so BU = (b1 , . . . , bk , ck+1 , . . . , cs ) und BV = (b1 , . . . , bk , d k+1 , . . . , d t ) ⇒ BU +V = (b1 , . . . , bk , ck+1 , . . . , cs , d k+1 , . . . , d t ) ⇒ dim(U + V ) = s + t − k = dim U + dim V − dim(U ∩ V ).     cos 25,3◦ − sin 25,3◦ 0,904 082 55 −0,427 357 863 Zu Übung 2.18: = 0,427 357 863 0,904 082 55 sin 25,3◦ cos 25,3◦ Zu Übung 2.19: dim Kern f = 2, Rang f = 1. Zu Übung 2.20: Kern f = {y(x) = c e2x | c ∈ R}. . Zu Übung 2.22: a) Winkel = 0◦ , b) Winkel = 14,5◦ . 4  1 3 x, g2 = 58 (3x 2 − 1). Zu Übung 2.23: g0 = √ , g1 = 2 2 Zu Übung 2.24: f (x) = f (x1 e1 + . . . + xn en ) = x1 f (e1 ) + . . . + xn f (en ). Die Behauptung folgt mit : v = [ f (e1 ), . . . , f (en )]T .   1 Zu Übung 2.25: Zu b): Sei o.B.d.A. [a, b] = [0,1]. Wähle f n (x) = 0 auf ,1 und als spitzes Dreieck n   1 . mit Höhe 1 auf 0, n Zu Übung 2.26: Hinweis: Bier, Musik, Tanz.

Zu Kapitel 3



940 Zu Übung 3.2: Z = 1030

 111 Ω, U1 = 276 V, U2 = 250,8 V. 560

Zu Übung 3.7: Rang A = 2, Rang B = 1, Rang x = 1. Zu Übung 3.8: Mit (3.23) folgt: n + n − n ≤ Rang AB ≤ min{n, n} = n. Zu Übung 3.9: C X 2 = B 2 , AX 1 = B 1 − DX 2 . ⎡   −11 1 0 1 ⎣−52 Zu Übung 3.10: A−1 = , B −1 = 1 0 488 81

52 24 −28

⎤ −1 84 ⎦, C singulär. −37

Zu Übung 3.15: det(a, b, c, a − 3b + π c) = 0. Zu Übung 3.16: det A = det(− AT ) = − det AT = − det A ⇒ det  A = 0.   B D 0 Zu Übung 3.17: a) D1 = 6465, D2 = −182611, b) det A = det det 0 C E

 E . 0

392

A Lösungen zu den Übungen

Zu Übung 3.18: Rang A = 4. 56 70 98 329 , x2 = , x3 = − , x4 = − . Zu Übung 3.21: x1 = − 1029 1029 1029 1029 ⎡ ⎤ ⎡ 0   −1 4 19 ⎢ 1 1 3 −8 ⎣ 27 −8 −13⎦, C −1 = ⎢1 Zu Übung 3.22: A−1 = , B −1 = ⎣0 5 23 1 200 17 32 −23 0

0 0 0 1

1 0 0 0

⎤ 0 0⎥ ⎥. 1⎦ 0

Zu Übung 3.24: D1 = 839, D2 = 2111, D3 = a41 · a32 · a23 · a14 . Zu Übung 3.25: a) Mit (3.20) folgt: (adj A) · A = (det A) · E ⇒ det(adj A) · det A = [(det A) · E] = (det A)n · det E = (det A)n . b) adj A = (det A) A−1 A = (det A)n−2 · A. ⇒ adj(adj A) = det(adj A)(adj A)−1 = (det A)n−1 · (det A) c) Mit (3.67) folgt: adj A = (det A) · A−1 ⇒ adj( AB) = (det( AB))( AB)−1 = (det A) · (det B)B −1 · A−1 = (det B)B −1 · (det A) A−1 = adj B · adj A. Zu Übung 3.26: X = A−1 B, Inversenformel anwenden! Zu Übung 3.27: ( AB)−1 = B −1 A−1 = B T AT = ( AB)T . Zu Übung 3.29: s. Abschn. 3.9.1, Satz 3.66. Zu Übung 3.31: S1 , S3 , S4 : positiv definit (Krit. (3.45)), S2 weder noch. √ Zu Übung 3.32: A, mit r = 257:     q +r q −r 16 16 λ1 = , λ2 = , x1 = , x2 = 1−r 1+r 2 √ 2 B, mit r = 15:     7 + ir 7 − ir 12 12 λ1 = , λ2 = , x1 = , x2 = 3 − ir 3 + ir 2 √ 2 C, mit r = 15: ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ 1 −8 − r −8 + r λ1 = 6, λ2 = 2 + r , λ3 = 2 − r , x 1 = ⎣0⎦, x 2 = ⎣ 1 ⎦, x 3 = ⎣ 1 ⎦. 0 5−r 5+r Zu Übung 3.33: ω1 = 249,9 s−1 , ω2 = 526,8s−1 . ⎤ ⎡ −2 1 0 ⎥ ⎢1 −2 1 ⎥ k ⎢ ⎥ ⎢ 1 −2 1 Zu Übung 3.34: A = ⎢ ⎥. ⎥ m⎢ . . . ..⎦ .. .. ⎣ 0 1 −2 Zu Übung 3.35: Hinweis: Verwende (3.157). Zu Übung 3.36: λ1 = α + β + γ , λ2/3 = ± α 2 + β 2 + γ 2 − αβ − αγ − βγ x 1 = [1,1,1]T , x 2/3 = [(γ − β) − λ2/3 , (α − γ ) + λ2/3 , β − α]T . Zu Übung 3.37: Nein! Aber: Die Eigenvektoren von B und C gehen durch zyklisches Vertauschen der α, β, γ aus den x 1 , x 2 , x 3 in Übung 3.36 hervor. Zu Übung 3.39: Diagonalmatrizen: D A = diag(16,10), D B = diag(5, −5), D C = diag(−6,6,3), D F = diag(6,3,6), D S = diag(3,3,9,9,15).

393

Transformationsmatrizen dazu: C TA AC A = D A usw.: ⎡     3 1 1 2 2 3 1 1 , CB = √ , CD = √ ⎣ 0 CA = √ 6 13 3 −2 5 1 −2 −3 ⎡ 1 0 0 √ ⎤ ⎡ ⎢0 2 6 −√ 5 0 1 1 ⎣ 1 ⎢ ⎦ 1 0 1 CF = √ 3 2√5 −4 , C S = √ ⎢ ⎢ 3· 5 0 2 5 3 ⎣1 −1 5 √0 3 0 0

√ ⎤ 1 −√ 2 ⎦ 2 √2 , 1 − 2 ⎤ 1 −1 1 1⎥ ⎥ −1 0⎥ ⎥. 0 1⎦ 0 0

Zu Übung 3.42: Jordansche Normalformen zu A, B, C usw. werden mit J A , J B , J C usw. bezeichnet und zugehörige Transformationsmatrizen mit T A , T B , T C usw., d.h. T −1 A AT A = J A usw. (Die T A , T B . . . sind nicht  eindeutig  bestimmt)       −6 1 2 1 8 0 3 1 JA = , TA = , JB = , TB = , 0 −6 1 1 0 −7 2 1 ⎤ ⎤ ⎡ ⎡     5 1 0 1 −1 3 6 1 6 0 1 −1⎦, , TC = , J D = ⎣0 5 0⎦, T D = ⎣2 JC = 0 6 0 1 0 0 5 0 1 −2 ⎤ ⎤ ⎤ ⎡ ⎡ ⎡ 3 0 0 1 −1 3 2 0 0 0 ⎦, T F = ⎣2 1 −1⎦ = T G , J G = ⎣0 3 0⎦, J F = ⎣0 3 0 0 −2 0 1 −2 0 0 0 ⎤ ⎤ ⎡ ⎡ 2 1 1 0 0 0 0⎥ ⎢0 2 ⎢ 3⎥ ⎥, ⎥, T = ⎢−1 1 −1 JH = ⎢ ⎣ 2 1 −1⎦ 2 1⎦ H ⎣ 2 1 0 1 −2 0 0 2 ⎤ ⎤ ⎡ ⎡ 1 1 0 1 −1 0 1 0 ⎥ ⎢0 ⎢ 1 1 0 0⎥ 0 1 ⎥ ⎥ ⎢ ⎢ ⎥, T M = ⎢ 1 3 3 3 1⎥ 0 1 JM = ⎢ ⎥. ⎥ ⎢ ⎢ ⎣1 ⎣ 1 1 4 0⎦ 0 1⎦ −1 0 1 1 0 0 0 Zu Übung 3.44: λ1 = −3, λ2 = 2, λ3 = 1, λ4 = −1. Zu Übung 3.45: a) Rang A = 2, Rang[ A, b] = 3: keine Lösung  T 1 1 b) x 0 = [17,3,9]T , c) x = − , ,0 + t[17,3,9]T . 9 3 Zu Übung 3.46: x1 = −

19 67 33 , x2 = , x3 = . 22 22 22

Zu Übung 3.50: A2 + 2 A + E = 0 ⇒ A(− A − 2E) = E ⇒ A−1 = − A − 2E. Zu Übung 3.53: Ist A regulär, so verwende (3.304) und A−1 = adj A/ det A (c0 = det A). Für singuläres A bilde Aε := A + ε E. Die Matrix Aε ist regulär für 0 < ε < ε0 (ε0 klein genug gewählt). Mit ε → 0 folgt die Behauptung. Zu Übung 3.60: Durch Vergleich von A mit Formel (3.361) findet man aus a√13 = − sin β sofort √ sin β = −1/3, und aus a12 = − cos β sin γ , a23 = − sin α cos β die Werte sin α = 1/ 2, sin γ = −1/ 2, woraus sich E 1 (α), E 2 (β), E 3 (γ ) ergeben. Zu Übung 3.66: Hinweis: Als Volkssport erfreut sich das Kegeln nach wie vor steigender Beliebtheit!

394

A Lösungen zu den Übungen

Zu Übung 3.68: (a) Die Normalgleichung lautet ⎤ ⎡ ⎤ ⎡ 12 4 2 6 ⎣2 6 8 ⎦ α = ⎣24⎦ , 40 6 8 18 womit sich die Lösung α = [0,2 ; 2,6 ; 1]T und somit p(y) = 0,2 + 2,6y + y 2 ergeben. (b) Wegen 

234 AT A = 156

156 104



erhalten wir mit dim Kern AT A = 1 einen eindimensionalen Lösungsraum. Aus der Normalgleichung   234 AT Aα = 156 ergibt sich die allgemeine Lösungsdarstellung     1 1 α= +λ , λ ∈ R. 0 −1,5 Zu Übung 3.69: Aus Übung 3.68 (a) erhalten wir ⎤ ⎡ 4 2 6 AT A = ⎣2 6 8 ⎦ , 6 8 18 so daß sich unter Verwendung von (3.256) und (3.257) die Darstellung AT A = L L T mit ⎡

2 L = ⎣1 3

√0 √5 5

⎤ 0 0⎦ 2

ergibt. Zu Übung 3.71: Benutze: Für A ∈ Mat(m, n; R), B ∈ Mat(n, p; R) und C ∈ Mat( p, q; R) gilt ( AB)C = A(BC) ;

( AB)T = B T AT

(s. Satz. 3.2, (M2) und (M5)), und zeige: ( Ax, y) = ( Ax)T y = (x T AT ) y = x T ( AT y) = (x, AT y) .

395

Zu Übung 3.72: Wir erhalten ⎡

1 A A† A = ⎣0 0 ⎡ 1 = ⎣0 0

1 0 0 0 1 0

⎤⎡1 0 2 ⎢ 1⎦ ⎣ 1 2 0 0 ⎤⎡ 0 1 0⎦ ⎣0 0 0

⎤ 0 ⎡1 1 0 ⎤ ⎥⎣ ⎦ 0 0⎦ 0 0 1 0 0 0 1 0 ⎤ ⎤ ⎡ 1 1 0 1 0 0 1⎦ = ⎣0 0 1⎦ = A 0 0 0 0 0 0

und analog A† A A† = A† . Nachrechnen der Symmetriebedingungen ⎡1 1 ⎤ ⎡ 1 2 2 0 ⎢ ⎥ † † A A = ⎣ 1 1 0⎦ und A A = ⎣0 2 2 0 0 0 1

0 1 0

⎤ 0 0⎦ 0

liefert somit den Nachweis. Die Optimallösung ergibt sich folglich gemäß ⎡ ⎤ 1 1 x = A† b = ⎣1⎦ . 2

Symbole Einige Zeichen, die öfters verwendet werden, sind hier zusammengestellt. A ⇒ B aus A folgt B A ⇔ B A gilt genau dann, wenn B gilt x := x ist definitionsgemäß gleich Zur Mengenschreibweise s. Abschn. 1.1.4 x∈M x ist Element der Menge M, kurz: »x aus M« x ∈ M x ist nicht Element der Menge M {x1 , x2 , . . . , xn } Menge der Elemente x1 , x2 , . . ., xn {x | x hat die Eigenschaft E} Menge aller Elemente x mit Eigenschaft E {x ∈ N | x hat die Eigenschaft E} Menge aller Elemente x ∈ N mit Eigenschaft E M ⊂ N , N ⊃ M M ist Teilmenge von N (d.h. x ∈ M ⇒ x ∈ N) M∪N Vereinigungsmenge von M und N M∩N Schnittmenge von M und N M\A Restmenge von A in M ∅ leere Menge A×B cartesisches Produkt aus A und B A1 × A2 × . . . × An cartesisches Produkt aus A1 , A2 ,

. . ., An N Menge der natürlichen Zahlen 1, 2, 3, . . . Z Menge der ganzen Zahlen Q Menge der rationalen Zahlen R Menge der reellen Zahlen (x1 , . . . , xn ) n-Tupel [a, b], (a, b), [a, b), (a, b] beschränkte Intervalle [a, ∞), (a, ∞), (−∞, a], (−∞, a), R unbeschränkte Intervalle C Menge der komplexen Zahlen (s. Burg/Haf/Wille (Analysis) [27], Abschn. 2.5.2) ⎡ ⎤ x1 ⎢.⎥ Spaltenvektor der Dimension n (Abschn. 2.1.1) ⎣ .. ⎦ xn Menge aller Spaltenvektoren der Dimension n Rn (wobei x1 , x2 , . . ., xn ∈ R) (Abschn. 2.1.1) Cn Menge aller Spaltenvektoren der Dimension n (wobei x1 , x2 , . . ., xn ∈ C) (Abschn. 2.1.5)

Weitere Bezeichungen |v| 1.1.3 λu 1.1.3 u+v 1.1.3 ⊥ 1.1.5 u·v 1.1.5 vR 1.1.6 det(a, b) 1.1.7 [a, b, x] 1.2.6 δik 1.2.7 dim U 2.1.3 Span{a1 , . . . , am } 2.1.3 U⊥ 2.1.3 U⊥ 2.1.3 v [x1 , x2 , . . . , xn ]T 2.2.1 Rang{c1 , . . . , ck } 2.2.5 f ◦g 2.3.2 Perm M 2.3.2 Sn 2.3.2 sgn( p) 2.3.3 Zp 2.3.5 Kn 2.4.2 C(I ) 2.4.2 C k (I ) 2.4.2

U1 ⊕ U2 ⊕ . . . ⊕ Um 2.4.4 U1  U2  . . .  Um 2.4.4 Kern f, Bild f, Rang f 2.4.7 [aik ]1≤i≤m i 3.1.2 1≤k≤n

[aik ]m,n 3.1.2 [δik ]n,n 3.1.2 Mat(m, n; R) 3.1.2 [a1 , a2 , . . . , an ] 3.1.3 AT 3.1.3 1 ai 3.1.3 Ax 3.2.2 Kern A, Bild A, Rang A 3.2.2 A−1 3.3.2 det A 3.4.1 GL(n; K) 3.4.5 adj A 3.4.7 A∗ , A 3.5.1 0(n), U(n), Sym(n), Her(n) 3.5.1 diag(a11 , . . . , ann ) 3.5.1 A⊕ B 3.5.8 Def A 3.8.1 χ A (λ) 3.6.1

398

Symbole

Spur A κi γi Am P( A) µ A (λ)

3.6.3 3.6.3 3.6.4 3.9.1 3.9.2 3.9.4 ∞ $ ( Am )m∈N , A j 3.9.5 j=0

lim Am 3.9.5

m→∞

exp A 3.9.7 sin A, cos A 3.9.7 D(ϕ) 3.10.1 Rv 3.10.1 3.10.2 Su D q (ϕ) 3.10.3 E 1 (α), E 2 (α), E 3 (α) 3.10.3 xB 3.10.5  p; b1 , . . . , bn ' 3.10.7

Literaturverzeichnis

[1] Amann, H.: Gewöhnliche Differentialgleichungen. De Gruyter, Berlin, 2 Aufl., 1995. [2] Aumann, G.: Höhere Mathematik I – III. Bibl. Inst., Mannheim, 1970 – 71. [3] Ayres, F.: Matrizen. McGraw-Hill, Düsseldorf, 1 Aufl., 1978. [4] Banchoff, T. und Wermer, J.: Linear Algebra Through Geometry. Springer, New York, 2 Aufl., 1992. [5] Bartsch, H.: Taschenbuch Mathematischer Formeln. Fachbuchverlag, Leipzig, 20 Aufl., 2004. [6] Becker, R. und Sauter, F.: Theorie der Elektrizität, Bd. 1. Stuttgart, Teubner, 21 Aufl., 1973. [7] Beiglböck, W.: Lineare Algebra. Eine anwendungsorientierte Einführung. Berlin, Springer, 1983. [8] Bishop, R.: The Matrix Analysis of Vibration. Cambridge University Press, Cambridge, 1965. [9] Björck, Å.: Numerical Methods for Least Squares Problems. SIAM, Philadelphia, 1996. [10] Bloom, D. M.: Linear Algebra and Geometry. Cambridge University Press, Cambridge, 1979. [11] Boerner, H.: Darstellungen von Gruppen. Springer, Berlin, 2 Aufl., 1967. [12] Böhmer, K.: Spline-Funktionen, Theorie und Anwendungen. Teubner, Stuttgart, 1974. [13] Boseck, H.: Grundlagen der Darstellungstheorie. VEB Dt. Verl. d. Wiss., Berlin, 1973. [14] Boseck, H.: Einführung in die Theorie der linearen Vektorräume. VEB Dt. Verl. d. Wiss., Berlin, 5 Aufl., 1984. [15] Brady, M., Hollerbach, J., Johnson, T., Lozano-Pérez, T. und Mason, M. (Hrsg.): Robot Motion and Control. MIT Press, Cambridge, Massachusetts, 1983. [16] Brauch, W., Dreyer, H. und Haacke, W.: Beispiele und Aufgaben zur Ingenieurmathematik. Teubner, Stuttgart, 1984. [17] Brauch, W., Dreyer, H. und Haacke, W.: Mathematik für Ingenieure. Teubner, Wiesbaden, 11 Aufl., 2006. [18] Brehmer, S. und Belkner, H.: Einführung in die analytische Geometrie und lineare Algebra. Harri Deutsch, Thun, 1972. [19] Brenner, J.: Mathematik für Ingenieure und Naturwissenschaftler I – IV. Aula, Wiesbaden, 4 Aufl., 1989. [20] Brickell, F.: Matrizen und Vektorräume. Verlag Chemie, Weinheim, 1976. [21] Bronson, R.: Matrix Methods. Academic Press, San Diego, 2 Aufl., 1991. [22] Bruhns, O. und Lehmann, T.: Elemente der Mechanik, Bd. 2 (Elastostatik). Vieweg, Wiesbaden, 2002. [23] Budden, F.: The Fascination of Groups. Cambridge University Press, Cambridge, 1972. [24] Burg, C., Haf, H. und Wille, F.: Höhere Mathematik für Ingenieure, Bd. 3. Teubner, Wiesbaden, 4 Aufl., 2002.

400

Literaturverzeichnis

[25] Burg, C., Haf, H. und Wille, F.: Höhere Mathematik für Ingenieure, Bd. Partielle Differentialgleichungen. Teubner, Wiesbaden, 3 Aufl., 2004. [26] Burg, C., Haf, H. und Wille, F.: Höhere Mathematik für Ingenieure, Bd. Funktionentheorie. Teubner, Wiesbaden, 1 Aufl., 2004. [27] Burg, C., Haf, H. und Wille, F.: Höhere Mathematik für Ingenieure, Bd. 1. Teubner, Wiesbaden, 7 Aufl., 2006. [28] Burg, C., Haf, H. und Wille, F.: Höhere Mathematik für Ingenieure, Bd. Vektoranalysis. Teubner, Wiesbaden, 1 Aufl., 2006. [29] Cole, R. J.: Vector Methods. Van Nostrand, New York, 1974. [30] Collatz, L.: Funktionalanalysis und numerische Mathematik. Springer, Berlin, 1968. [31] Courant, R.: Vorlesungen über Differential- und Integralrechnung 1 – 2. Springer, Berlin, 3 Aufl., 1969. [32] Cracknell, A. P.: Angewandte Gruppentheorie. Vieweg, Braunschweig, 2 Aufl., 1994. [33] Cunningham, J.: Vektoren. Vieweg, Braunschweig, 1982. [34] Curtis, C. W.: Linear Algebra. Springer, Berlin, 4 Aufl., 1984. [35] Dallmann, H. und Elster, K.-H.: Einführung in die Höhere Mathematik 1 – 3. Stuttgart, UTB für Wissenschaft, 3 Aufl., 1991. [36] Demmel, J.: Applied Numerical Linear Algebra. SIAM, Philadelphia, 1997. [37] Dietrich, G. und Stahl, H.: Matrizen und Determinanten. Harri Deutsch, Thun, 1978. [38] Doerfling, R.: Mathematik für Ingenieure und Techniker. Oldenbourg, München, 11 Aufl., 1982. [39] Dörrie, H.: Vektoren. Oldenbourg, München, 1941. [40] Dreszer, J. (Hrsg.): Mathematik-Handbuch für Technik und Naturwissenschaften. Harri Deutsch, Zürich, 1975. [41] Duschek, A.: Vorlesungen über Höhere Mathematik 1 – 2, 4. Springer, Wien, 1961 – 65. [42] Eisenreich, G.: Lineare Algebra und Analytische Geometrie. Akademie-Verlag, Berlin, 1980. [43] Endl, K. und Luh, W.: Analysis I – III. Aula, Wiesbaden, 8 Aufl., 1989 – 94. [44] Engeln-Müllges, G. und Reutter, F.: Formelsammlung zur numerischen Mathematik mit Standard-FORTRAN-Programmen. Bibl. Inst., Mannheim, 7 Aufl., 1988. [45] Faddejew, D. und Faddejewa, W.: Numerische Methoden der linearen Algebra. Oldenbourg, München, 1979. [46] Fetzer, A. und Fränkel, H.: Mathematik 2. Springer, Berlin, 5 Aufl., 1999. [47] Fetzer, A. und Fränkel, H.: Mathematik 1. Springer, Berlin, 8 Aufl., 2005. [48] Fischer, G.: Lineare Algebra. Eine Einführung für Studienanfänger. Vieweg, Wiesbaden, 15 Aufl., 2005. [49] Fletcher, T.: Linear Algebra through its Applications. Van Nostrand, New York, 1972. [50] Frazer, R.: Elementary Matrices. Cambridge University Press, Cambridge, 1963. [51] Gantmacher, F. R.: Matrizentheorie. Springer, Berlin, 1986. [52] Golub, G. und Loan, C. van: Matrix Computations. The Johns Hopkins University Press, Baltimore, 3 Aufl., 1996.

Literaturverzeichnis

401

[53] Greenbaum, A.: Iterative Methods for Solving Linear Systems, Bd. 17 d. Reihe Frontiers in Applied Mathematics. SIAM, Philadelphia, 1997. [54] Gröbner, W.: Matrizenrechnung. Bibl. Inst., Mannheim, 1966. [55] Grosche, G., Ziegler, V., Ziegler, D. und Zeidler, E. (Hrsg.): Teubner-Taschenbuch der Mathematik, Bd. 2. Teubner, Wiesbaden, 8 Aufl., 2003. [56] H., M.: Algorithmische lineare Algebra. Vieweg, Wiesbaden, Vieweg. [57] Haacke, W., Hirle, M. und Maas, O.: Mathematik für Bauingenieure. Teubner, Stuttgart, 2 Aufl., 1980. [58] Hainzl, J.: Mathematik für Naturwissenschaftler. Teubner, Stuttgart, 4 Aufl., 1985. [59] Heinhold, J., Behringer, F., Gaede, K. und Riedmüller, B.: Einführung in die Höhere Mathematik 1 – 4. Hanser, München, 1976. [60] Henrici, P. und Jeltsch, R.: Komplexe Analysis für Ingenieure 1. Birkhäuser, Basel, 3 Aufl., 1998. [61] Henrici, P. und Jeltsch, R.: Komplexe Analysis für Ingenieure 2. Birkhäuser, Basel, 2 Aufl., 1998. [62] Herrmann, D.: Angewandte Matrizenrechnung. Vieweg, Braunschweig, 1985. [63] Heuser, H.: Lehrbuch der Analysis, Bd. 2. Teubner, Wiesbaden, 13 Aufl., 2004. [64] Heuser, H.: Funktionalanalysis. Teubner, Wiesbaden, 4 Aufl., 2006. [65] Heuser, H.: Lehrbuch der Analysis, Bd. 1. Teubner, Wiesbaden, 16 Aufl., 2006. [66] Hoffmann, B.: About Vectors. Dover Publications, New York, 1975. [67] Hohn, F.: Elementary Matrix Algebra. Collier MacMillan Publishers, London, 1973. [68] Holland, D. und Treeby, T.: Vectors. Edward Arnold, London, 1977. [69] Jahnke, E., Emde, F. und Lösch, F.: Tafeln höherer Funktionen. Teubner, Stuttgart, 7 Aufl., 1966. [70] Jeffrey, A.: Mathematik für Naturwissenschaftler und Ingenieure 1 – 2. Verlag Chemie, Weinheim, 1973 – 1980. [71] Jeger, M. und Eckermann, B.: Einführung in die vektorielle Geometrie und lineare Algebra. Birkhäuser, Basel, 1967. [72] Joos, G.: Lehrbuch der theoretischen Physik. Aula, Wiesbaden, 15 Aufl., 1989. [73] Jordan-Engeln, G. und Reutter, F.: Numerische Mathematik für Ingenieure. Bibl. Inst., Mannheim, 1984. [74] Jänich, K.: Analysis für Physiker und Ingenieure. Springer, Berlin, 4 Aufl., 2001. [75] Kamke, E.: Das Lebesgue-Stieltjes-Integal. Teubner, Leipzig, 1956. [76] Kantorowitsch, L. und Akilow, G.: Funktionalanalysis in normierten Räumen. Harri Deutsch, Thun, 1978. [77] Keller, O.: Analytische Geometrie und lineare Algebra. VEB Dt. Verl. d. Wiss., Berlin, 2 Aufl., 1963. [78] Kochendörffer, R.: Determinanten und Matrizen. Teubner, Stuttgart, 1957. [79] Koecher, M.: Lineare Algebra und analytische Geometrie. Springer, Berlin, 4 Aufl., 1997. [80] Kostrikin, A.: Introduction to Algebra. Springer, New York, 1982. [81] Kowalsky, H.-J. und Michler, G.: Lineare Algebra. Walter de Gruyter, Berlin, 12 Aufl., 2003. [82] Kreyszing, E.: Introductory Functional Analysis with Applications. Wiley, New York, 1978.

402

Literaturverzeichnis

[83] Kühnlein, T.: Differentialrechnung II, Anwendungen. Mentor-Verlag, München, 11 Aufl., 1975. [84] Kühnlein, T.: Integralrechnung II, Anwendungen. Mentor-Verlag, München, 12 Aufl., 1977. [85] Lambertz, H.: Vektorrechnung für Physiker. Klett, Stuttgart, 1976. [86] Lang, S.: Algebraische Strukturen. Vandenhoek und Ruprecht, Göttingen, 1979. [87] Laugwitz, D.: Ingenieur-Mathematik I – V. Bibl. Inst., Mannheim, 1964 – 67. [88] Lawson, C. und Hanson, R.: Solving Least Squares Problems, Bd. 15 d. Reihe Classics in Applied Mathematics. SIAM, Philadelphia, 1995. [89] Ledermann, W. und Vajda, S. (Hrsg.): Handbook of Applicable Mathematics, Bd. 1: Algebra. John Wiley, New York, 1980. [90] Leis, R.: Vorlesungen über partielle Differentialgleichungen zweiter Ordnung. Bibl. Inst., Mannheim, 1967. [91] Lewis, P. (Hrsg.): Vectors and Mechanics. Cambridge University Press, Cambridge, 1971. [92] Lingenberg, R.: Einführung in die lineare Algebra. Bibl. Inst., Mannheim, 1976. [93] Ljubarski, G.: Anwendungen der Gruppentheorie in der Praxis. VEB Dt. Verl. d. Wiss., Berlin, 1962. [94] Martensen, E.: Analysis I – IV. Spektrum, Heidelberg, 1992 – 1995. [95] Meinardus, G. und Merz, G.: Praktische Mathematik I – II. Bibl. Inst., Mannheim, 1979 – 82. [96] Meister, A.: Numerik Linearer Gleichungssysteme. Vieweg, Wiesbaden, 2 Aufl., 2005. [97] Meschede, D. (Hrsg.): Gehrtsen Physik. Springer, Berlin, 22 Aufl., 2004. [98] Milne, E.: Vectorial Mechanics. Methuen, London, 1948. [99] Mirsky, L.: An Introduction to linear Algebra. Clarendon Press, Oxford, 1972. [100] Morgenstern, D. und Szabó, I.: Vorlesungen über Theoretische Mechanik. Springer, Berlin, 1961. [101] Muir, T.: A Treatise on the Theory of Determinants. Dover Publications, New York, 1960. [102] Müller, M.: Approximationstheorie. Akad. Verlagsges., Wiesbaden, 1978. [103] Müller, T.: Darstellungstheorie von endlichen Gruppen. Teubner, Stuttgart, 1980. [104] Murdoch, C.: Analytic Geometry with an Introduction to Vectors and Matrices. John Wiley, New York, 1966. [105] Nickel, K.: Die numerische Berechnung eines Polynoms. Numerische Math., 9:80 – 98, 1966. [106] Nickel, K.: Algorithmus 5: Die Nullstellen eines Polynoms. Computing, 2:284 – 288, 1967. [107] Nickel, K.: Fehlerschranken zu Näherungswerten von Polynomwurzeln. Computing, 6:9 – 29, 1970. [108] Noble, B. und Daniel, J.: Applied linear Algebra. Prentice Hall, Englewood Cliffs, 2 Aufl., 1977. [109] Oberschelp, A.: Aufbau des Zahlensystems. Vandenhoek u. Ruprecht, Göttingen, 3 Aufl., 1976. [110] Oden, J.: Applied Functional Analysis. Prentice Hall, Englewood Cliffs, 1979. [111] Parlett, B. N.: The Symmetric Eigenvalue Problem, Bd. 20 d. Reihe Classics in Applied Mathematics. Soc. for Industrial and Applied Math., Philadelphia, 1998. [112] Parlett, B.: The Symmetric Eigenvalue Problem. Prentice Hall, Englewood Cliffs, 1980. [113] Pfeiffer, F. und Reithmeier, E.: Roboterdynamik. Eine Einführung in die Grundlagen und technischen Anwendungen. Teubner, Stuttgart, 1996.

Literaturverzeichnis

403

[114] Plato, R.: Numerische Mathematik kompakt. Vieweg, Wiesbaden, 3 Aufl., 2006. [115] Pullmann, N.: Matrix theory and its applications. M. Dekker, New York, 1976. [116] Pupke, H.: Einführung in die Matrizenrechnung. VEB Dt. Verl. d. Wiss., Berlin, 1953. [117] Rang, O.: Einführung in die Vektorrechnung. Steinkopff, Darmstadt, 1974. [118] Rothe, R.: Höhere Mathematik für Mathematiker, Physiker und Ingenieure. Teubner, Stuttgart, 1960 – 65. [119] Ryshik, I. und Gradstein, I.: Summen-, Produkt- und Integraltafeln. Harri Deutsch, Frankfurt, 5 Aufl., 1981. [120] Sauer, R.: Ingenieurmathematik 1 – 2. Springer, Berlin, 1968 – 69. [121] Schaefke, F.: Einführung in die Theorie der speziellen Funktionen der mathematischen Physik. Springer, Berlin, 1963. [122] Schmidt, F.: Vektorrechnung I und II. Aschendorff, Münster, 1948. [123] Schmidt, G.: Basic linear Algebra with Applications. R.E. Krieger Publ. Comp., New York, 1980. [124] Schmidt, W.: Lehrprogramm Vektorrechnung. Physik Verlag, Weinheim, 1978. [125] Schwarz, H. und Köckler, N.: Numerische Mathematik. Teubner, Wiesbaden, 6 Aufl., 2006. [126] Schüßler, H.: Netzwerke, Signale und Systeme 1. Springer, Berlin, 3 Aufl., 1991. [127] Shubnikow, A. und Koptsik, V.: Symmetry in Science and Art. Plenum Press, New York, 1974. [128] Smirnow, W.: Lehrgang der höheren Mathematik I – V. VEB Dt. Verl. d. Wiss., Berlin, 1971 – 77. [129] Sonar, T.: Angewandte Mathematik, Modellbildung und Informatik. Vieweg, Wiesbaden, 2001. [130] Sperner, E.: Einführung in die analytische Geometrie und Algebra. Vandenhoek und Ruprecht, Göttingen, 1969. [131] Stanek, J.: Einführung in die Vektorrechnung für Elektrotechniker. Verlag Technik, Berlin, 1958. [132] Steinbach, O.: Lösungsverfahren für lineare Gleichungssysteme. Teubner, Wiesbaden, 2005. [133] Steinberg, D.: Computational Matrix Algebra. Mc-Graw-Hill, London, 1974. [134] Stewart, G.: Introduction to Matrix Computation. Academic Press, New York, 1973. [135] Stiefel, E. und Fässler, A.: Gruppentheoretische Methoden und ihre Anwendung. Teubner, Stuttgart, 1979. [136] Stoer, J.: Numerische Mathematik I. Springer, Berlin, 9 Aufl., 2004. [137] Stoer, J. und Burlisch, R.: Numerische Mathematik II. Springer, Berlin, 5 Aufl., 2005. [138] Strang, G.: Linear Algebra and its Applications. Academic Press, New York, 1976. [139] Strubecker, K.: Einführung in die Höhere Mathematik I – IV. Oldenbourg, München, 1966 – 84. [140] Szabo, I.: Höhere Technische Mechanik. Springer, Berlin, 6 Aufl., 2001. [141] Trefethen, L. und Bau, D.: Numerical Linear Algebra. SIAM, Philadelphia, 1997. [142] Tropper, M.: Matrizenrechnung in der Elektrotechnik. Bibl. Inst., Mannheim, 1964. [143] Unbehauen, R.: Elektrische Netzwerke. Springer, Berlin, 3 Aufl., 1990. [144] van der Vorst, H.: Iterative Krylov Methods for Large Linear Systems, Bd. 13 d. Reihe Cambridge monographs on Applied and Computational Mathematics. Cambridge University Press, Cambridge, 2003.

404

Literaturverzeichnis

[145] Varga, R.: Matrix Iterative Analysis, Bd. 27 d. Reihe Springer Series in Computational Mathematics. Springer, Berlin, 2 Aufl., 2000. [146] Vogel, H.: Probleme aus der Physik. Aufgaben mit Lösungen aus Gehrtsen/Kneser/Vogel, Physik. Springer, Berlin, 16 Aufl., 1989. [147] Wagner, K.: Graphentheorie. Bibl. Inst., Mannheim, 1970. [148] Weidmann, J.: Lineare Operatoren in Hilberträumen — Teil 1: Grundlagen. Teubner, Stuttgart, 2000. [149] Weidmann, J.: Lineare Operatoren in Hilberträumen — Teil 2: Anwendungen. Teubner, Wiesbaden, 2003. [150] Werner, H.: Praktische Mathematik 1, Methoden der linearen Algebra. Springer, Berlin, 3 Aufl., 1982. [151] Wille, F.: Analysis. Teubner, Stuttgart, 1976. [152] Wilson, R.: Einführung in die Graphentheorie. Vandenhoek und Ruprecht, Göttingen, 1976. [153] Wittig, A.: Vektoren in der analytischen Geometrie. Vieweg, Braunschweig, 1968. [154] Wittig, A.: Einführung in die Vektorrechnung. Vieweg, Braunschweig, 2 Aufl., 1971. [155] Wolfgang, B. und Bunse-Gerstner, A.: Numerische lineare Algebra. Teubner, Stuttgart, 1985. [156] Wörle, H. und Rumpf, H.: Ingenieur-Mathematik in Beispielen I – IV. Oldenbourg, München, 1992 – 95. [157] Zeidler, E. (Hrsg.): Teubner-Taschenbuch der Mathematik. Begr. v. I.N. Bronstein und K.A. Semendjajew. Weitergef. v. G. Grosche, V. Ziegler und D. Ziegler. Teubner, Wiesbaden, 2 Aufl., 2003. [158] Zurmühl, R. und Falk, S.: Matrizen und ihre Anwendungen, Bd. 2. Springer, Berlin, 5 Aufl., 1986. [159] Zurmühl, R. und Falk, S.: Matrizen und ihre Anwendungen, Bd. 1. Springer, Berlin, 7 Aufl., 1997.

Stichwortverzeichnis

A Abbildung – abstandserhaltende, 304 – bijektive, 112 – eineindeutige, 112 – injektive, 112 – multilineare, 172 – strukturverträgliche, 133 – surjektive, 112 – umkehrbar eindeutige, 112 Abstand – eines Punktes von einer Geraden, 34, 70 abstandserhaltende Abbildung, 198 Abszisse, 2 Addition – von Vektoren, 10 Additionstheoreme – für Tangens und Cotangens, 5 additive – Gruppe, 111 – Schreibweise, 111 Additivität, 171 adjungierte Matrix, 191 Adjunkte, 183 Admittanz-Matrix, 375 Äquivalenzrelation, 136 äußeres Produkt, 50 affine Abbildung – von Rn in Rm , 323 affine Koordinatentransformation, 329 affiner Unterraum von mathbb R n , 323 affines Koordinatensystem, 323 algebraische Vielfachheit, 219, 223 algebraisches Komplement, 183 alternierende Eigenschaft, 171 annullierendes Polynom, 286 – kleinsten Grades, 292 Antikommutativgesetz – des äußeren Produkts, 51 Arbeit, 23 Arcuscosinus, 6 Arcuscotangens, 6 Arcusfunktionen, 6 Arcussinus, 6 Arcustangens, 6 Assoziativgesetz

– der Addition von Vektoren, 11 – des äußeren Produkts, 51 – für das innere Produkt, 24, 46 – für die s-Multiplikation einer Matrix mit einem Skalar, 151 – für die Multiplikation mit Skalaren, 11 Aufschaukeln, 211 Aufschaukelungskatastrophe, 211 Ausgleichsgerade, 337 Ausgleichslösung, 339 Automorphismus, 116, 136 B Bahn – eines Massenpunktes, 57 Balken, 211 Banachraum, 144 Banachscher Fixpunktsatz, 270 Bandmatrix, 269 Basis – eines linearen Raumes, 151 – eines Roboters, 376 – kanonische, 321 Basis des R3 , 68 Basiselement – Austausch von, 127 Basismatrix, 318 – eines affinen Koordinatensystems im Rn , 324 Basisvektor, 69 Basiswechsel, 68, 319 – orthonormaler, 69 Baum, 369 Bestimmung der Eigenwerte, 213 Betrag – eines Vektors, 12 – Gesetze für, 44 Bewegung, 326 Bewertung, 366 Bezugspunkt, 56 Bidiagonalgestalt, 356 bijektiv, 136 bijektive Abbildung, 112 Bild – einer Matrix, 159 – eines Gruppen-Homomorphismus, 117 Bilinearform, 204

406

Stichwortverzeichnis

– positiv definite, 205 – positiv semidefinite, 205 – schiefsymmetrische, 204 – symmetrische, 204 binomische Formel, 26 Block, 162 Blockmatrix, 162, 209 Blockzerlegung einer Matrix, 162 Bogenmaß, 3 Brücke, 211 C CG-Verfahren, 347 charakteristische Gleichung, 212, 287 charakteristisches Polynom, 203, 213 – Eigenschaften des, 217 Cholesky-Verfahren, 268 Cholesky-Zerlegung, 346 Computer, 176 Coriolis-Beschleunigung, 18 Corioliskraft, 18, 19 Cosinus, 3 Cosinussatz, 38, 83, 142 Cotangens, 5 Cramersche Regel, 68 D Darstellungstheorie von Gruppen, 167 Defekt einer Matrix, 204, 234, 261 Deflation einer Matrix, 257 Deflationsmethode von Wielandt, 257 Determinante – einer (3,3)-Matrix, 49 – einer quadratischen Matrix, 169 – Entwicklung nach der i-ten Zeile, 187 – Entwicklung nach der k-ten Spalte, 187 – Entwicklung nach der ersten Zeile, 50 – Summe von, 218 – symbolische, 53 – zweireihige, 36 Diagonale, 191 diagonalisierbare Matrix, 226 Diagonalisierbarkeitskriterium, 228 Diagonalisierung symmetrischer Matrizen, 230 Diagonalmatrix, 192 Differentialgleichung, 216 – elliptische, 234 – hyperbolische, 234 – parabolische, 234 – ultrahyperbolisch, 234 Dimension – eines Raumes, 151 Dimension eines Vektorraumes, 126 Dimensionsformel, 139 direkte Summe, 209 direktes Produkt von Matrizen, 210

Distributivgesetz – des äußeren Produkts, 51 – für das innere Produkt, 24, 46 Distributivgesetze – für die Multiplikation mit Skalaren, 11 doppeldeutiges Symbol, 295 Doppelgerade, 332 Drehachse, 311 Drehbewegung, 58 – gleichförmige, 17 Drehgeschwindigkeitsvektor, 58 Drehimpuls – bei einer Zentralkraft, 56 – eines Massenpunktes bzgl. des Nullpunktes, 57 Drehmatrix, 305, 306, 310 Drehmoment, 56 – Betrag des, 56 Drehspiegelung, 317, 318 Drehung, 304, 305, 310, 318 – gegen den Uhrzeigersinn, 3 – Normalform einer, 311 Dreieck, 39 – Flächeninhalt eines, 37 Dreiecksmatrix, 174, 189 – linke, 193 – obere, 193 – rechte, 193 – reguläre, 264 – untere, 193 Dreieckssystem, 88, 101, 161 Dreiecksungleichung, 12, 44, 77 – zweite, 13 Dreieckszerlegung, 266 E Ebene – schiefe, 14 echte Maximalstelle, 208 echte Minimalstelle, 208 Ecke, 366 Ecken-Kanten-Inzidenzmatrix, 368 Eigenfrequenzen, 217 Eigengleichung, 212 Eigenraum, 203, 223, 229 Eigenvektor, 203, 211, 213, 242 Eigenwert, 203, 211, 242 – algebraische Vielfachheit eines, 219 – einer Matrixpotenz, 222 – k-facher, 203, 219 – Verschiebung von, 221 Eigenwertproblem, 212 – algebraisches, 211 eindeutig lösbare Gleichungssystem, 261 eineindeutige Abblidung, 112 Einheitskreislinie, 3 Einheitsmatrix, 149

Stichwortverzeichnis

Einheitsvektor, 47 Einsmatrix, 149 Eintragungen einer Matrix, 148 elektrische Schwingung, 216 Elemente – einer Matrix, 148 Eliminationsstrategie, 278 Ellipse, 332 Ellipsoid, 336 Endomorphismus, 136 Energie – kinetische, 231 eng gekoppelte Pendel, 216 Entwicklungssatz – nach Spalten, 187 – nach Zeilen, 187 Epimorphismus, 136 erzeugende Funktion, 299 Erzeugendensystem, 80, 127 erzeugendes Polynom, 284 euklidische Norm, 12, 272 euklidischer Vektorraum, 141 Eulersche Matrix, 363 Extremalproblem, 208 Extremwert, 208 F Fahrzeugteile, 211 Faktor – eines Spaltenvektors, 171 Faktorgruppe, 118 Fehlervektor, 272 finite Elemente, 259 Fixgerade, 212 Fixpunkt, 269, 311 Fixpunkteigenschaft, 270 Fläche zweiten Grades, 333 Flächengeschwindigkeit, 57 Flächeninhalt – eines Dreiecks, 37, 60 – eines von Vektoren aufgespannten Parallelogramms, 51 Flächennormale, 59 Flatterrechnung von Flugzeugen, 216 Fliehkraft, 18 Flugzeugflattern, 211 Flugzeugflügel, 211 Folge von Matrizen, 294 Formel – binomische, 26 – für die Zwischenwinkel zweier Vektoren, 47 Fredholmsche Alternative, 104, 262 freie Summe von Vektorräumen, 131 Fundamentalschnitt, 370 Fundamentalsystem, 129, 261 Funktion

– erzeugende, 299 Funktionenraum, 123, 264 Fußpunkt, 33, 42 G Gauß-Seidel-Verfahren, 277 General Linear Group GL, 181 generalisierte Inverse, 351 geometrische Vielfachheit, 223 Gerade, 81, 128 – Hessesche Normalform einer, 28 – im R3 , 70 – Parameterform der, 26 Gerade durch 0, 212 Geraden – windschiefe, 70 gerichteter Graph, 366 Gesamtdrehimpuls, 57 Gesamtimpedanz-Matrix, 152 Gesamtschrittverfahren, 272 Gleichungssystem – eindeutig lösbares, 261 – homogenes, 161 – homogenes lineares, 261 – lineares, 157, 262 – lösbares, 261 Glied – eines Roboters, 376 Graph – gerichteter, 366 Graßmannscher Entwicklungssatz, 54 Greifer eines Roboters, 376 Grenzmatrix einer Matrixreihe, 295 Grenzwert – einer Folge, 144 – einer Matrixreihe, 295 Grundschwingung, 254 Gruppe, 109, 166 – abelsche, 110 – additive, 111 – der Kongruenzabbildungen, 109 – endliche, 111 – kommutative, 110 – multiplikative, 111, 181 – Ordnung einer, 111 – unendliche, 111 Gruppe von Matrizen, 195 H Hauptabschnittsmatrix, 266 – führende k × k, 266 Hauptachse – einer Quadrik, 329 Hauptdiagonale, 149, 191 Hauptdiagonalelement einer Matrix, 191 Hauptminor, 194, 217

407

408

Stichwortverzeichnis

Hauptunterdeterminante, 217 Hauptuntermatrix, 217 Hauptvektor – höchster Stufe, 238 – k-ter Stufe, 238 hermitesche Matrix, 193 Hessenberg-Matrix, 259 Hessesche Normalform, 71, 82 Hessesche Normalform einer Geraden, 28, 34 Hilbertraum, 144, 264 Hilbertscher Folgenraum, 124 Hilfsgrößen, 253 homogene Gleichung, 379 Homogenität, 77, 171 homomorph, 167 Homomorphiebedingung, 116 Homomorphiesatz für Gruppen, 118 Homomorphismus, 116 Householder-Verfahren, 308, 350 Hyman-Verfahren, 259 Hyperbel, 332 Hyperboloid – einschaliges, 336 – zweischaliges, 336 Hyperebene, 128 – im Rn , 81 Hyperfläche zweiten Grades, 326 I Identität, 112, 159 Impedanzmatrix, 151 injektiv, 136 injektive Abbildung, 112 ◦ Inneres eines Definitionsbereiches D , 208 inneres Produkt, 24 – algebraische Form des, 47 – Regeln für, 77 instabiles schwingendes System, 216 Integralgleichung, 264 Integritätsbereich, 121 Intervall, 3 – abgeschlossenes beschränktes, 3 – halboffenes beschränktes, 3 – offenes beschränktes, 3 – unbeschränktes, 3 Inverse, 166 – generalisierte, 351 inverse Matrix, 166 Inversenformel, 184 Inverses Element, 110 Inzidenzmatrix, 368 Isometrie, 198, 304 isomorph, 167 isomorphe Vektorräume, 136 Isomorphismus, 116, 136 Iterationsfolge, 270

– divergente, 273 Iterationsmatrix, 270 J Jacobi-Schritt, 253 Jacobi-Verfahren, 270, 356 Jordankasten, 225, 236, 291 Jordanmatrix, 225, 236 Jordansche Normalform, 235, 236, 291 – Existenz der, 237 K Kästchen, 162 Kante, 366 kartesische Koordinaten – bzgl. einer Orthonormalbasis, 322 – matrixfreie Transformation von, 322 kartesisches Koordinatensystem, 2 Kegel, 330 – elliptischer, 336 Kern – einer Matrix, 159 – eines Gruppen-Homomorphismus, 117 Kette von Hauptvektoren, 238 kinetische Energie, 231 Kirchhoffsches Stromgesetz, 369 Knoten, 359 Knotenlast-Vektor, 365 Körperaxiome, 120 Kofaktor, 183 kollineare Vektoren, 67 Kommutativgesetz – der Addition von Vektoren, 11 – für das innere Produkt, 24, 46 – für die Addition von Matrizen, 151 komplanare Vektoren, 67 Komplement – orthogonales, 263 – rechtwinkliges, 30 komplementäre Matrix, 183 komplexe – Ebene, 211 – Matrix, 156, 163, 164, 170, 174, 191 – Zahlen, 211 komplexes – Polynom, 284 Komponenten – des Kraftvektors, 15 – kartesische, 2 Komposition, 159 Konditionszahl, 347 Kongruenzabbildung, 107 konjugiert komplexe – Matrix, 191 – Zahl, 191 Konvergenzradius, 297

Stichwortverzeichnis

Konvergenzverlauf, 272 Koordinaten – kartesische, 2 – von x bzgl. B, 319 Koordinatendarstellung, 27 – der Parameterform der Geraden, 26 Koordinateneinheitsvektor, 25, 46 Koordinatensystem – affines, 323 – globales, 359 – kartesisches, 2 – lokales, 359 Koordinatentransformation, 320 Koordinatenvektor – bezüglich einer Basis, 319 Korkenzieherregel, 51 Kräfte-Transformations-Matrix, 363 Kräfteparallelogramm, 13 Kraft, 13 – auf elektrischen Leiter, 61 – Moment einer, 56 – Wirkungslinien der, 14 Krafteck, 14 Kraftvektor, 13 Kraftwirkung auf eine bewegte Ladung, 60 Kreiskegel, 330 Kristallographie, 321 Kriterium von Hadamard, 206, 208 – für n = 2 und n = 3, 207 Kronecker-Produkt, 210 Kroneckersymbol, 68, 97 Krylov-Verfahren, 293 Kühlturm, 336 L Länge, 143 – eines Vektors, 12 Lagrangesches Interpolationspolynom, 301 Lastvektor, 364 leere Menge, 332 Leiterschleife, 62 Leitwerk, 211 linear unabhängige Vektoren, 78 lineare Abbildung, 133 – Additivität der, 133 – Homogenität der, 133 – Linearität der, 133 – von Rn in Rm , 133 lineare Mannigfaltigkeit, 81, 102, 128, 261 – Parameterdarstellung einer, 82 lineare Transformation, 133 linearer Anteil, 323 linearer Operator, 133 linearer Raum – über R, 151 – von Matrizen über K, 195

linearer Raum über K, 122 lineares Ausgleichsproblem, 337 lineares Gleichungssystem, 86, 157 – homogenes, 86, 104 – inhomogenes, 86, 104 – quadratisches, 87 – rechteckiges, 104 – reguläres, 96 – singulär, 96 Linearkombination von Vektoren, 47, 78, 125 linke Dreiecksmatrix, 192, 193 linke unipotente Matrix, 192 Linksmultiplikation, 212 lösbares Gleichungssystem, 261 Lösungsgesamtheit, 245 Lösungsmenge, 261 lokale Gleichgewichtsmatrix, 364 Lot, 33, 70 Luftkräfte, 216 M Mannigfaltigkeit – d-dimensionale, 262 – lineare, 81, 261, 323 Masche, 367 Mascheninzidenz-Matrix, 373 Masse – schwingende, 216 Matrix – Addition, 150 – adjungierte, 191 – algebraische Komplement einer, 183 – Bild einer, 159 – Blockzerlegung einer, 162 – charakteristisches Polynom einer, 213 – Defekt einer, 204, 234, 261 – Deflation einer, 257 – Determinante einer quadratischen, 169 – diagonalähnliche, 226 – diagonalisierbare, 226 – Dreieckszerlegung einer, 266 – Eintragungen der, 148 – Elemente der, 148 – elementweise Differentiation, 301 – Hauptdiagonale einer, 149 – Hauptdiagonalelement einer, 191 – hermitesche, 193, 235 – inverse, 166 – invertierbare, 166 – Jordansche Normalform einer, 236 – Kern einer, 159 – komplementäre, 183 – komplexe, 191 – komplexwertige, 148 – konjugiert komplexe, 191 – leicht invertierbare, 270

409

410

Stichwortverzeichnis

– linke unipotente, 192, 265 – negativ definite, 193 – negativ semidefinite, 193 – nilpotente, 283 – Nullraum einer, 160 – orthogonale, 192, 193, 197 – positiv definite, 193, 205, 268 – positiv semidefinite, 193, 205 – quadratische, 148 – Rang einer, 159 – rangdefizitäre, 342, 347 – rechte unipotente, 192 – reelle, 133 – reelle quadratische, 262 – reguläre, 164, 178, 181 – s-Multiplikation, 150 – schiefhermitesche, 193 – schiefsymmetrisch, 193 – schiefsymmetrische, 174 – schwach besetzte, 269 – Signatur einer, 204 – Singulärwert einer, 352 – Spaltenraum einer, 160 – Spektralradius einer, 212 – Spektrum einer, 212, 299 – Spur einer, 217 – Subtraktion, 150 – symmetrische, 193 – Trägheitsindex einer, 204 – transponierte einer, 152 – um b erweiterte, 260 – unitäre, 192 – unzerlegbare, 274 – vom Format (m, n), 147 – Zeilenraum einer, 160 – zerlegbare, 274 – zugehörige negative, 149 – zweireihige quadratische, 36 Matrix-Cosinusfunktion, 303 Matrix-Produkt, 154 Matrix-Sinusfunktion, 303 Matrixfolge – divergente, 294 – elementweise konvergente, 294 Matrixfunktion, 297 Matrixnorm, 302 Matrixpolynom, 284 – vertauschbares, 285 Matrixpotenzreihe, 297 Matrixreihe, 295 – divergente, 295 – Grenzmatrix einer, 295 – Grenzwert einer, 295 – konvergente, 295 – Summe einer, 295 Matrizenalgebra, 195, 196

Matrizengruppe, 195 m-dimensionale lineare Mannigfaltigkeit, 81 Meßfehler, 337 Michelson-Versuch, 17 Minimalpolynom, 292 Moment einer Kraft, 56 Monomorphismus, 136 Multilinearität, 172 Multiplikation – von Vektoren mit einem Skalar, 10 Multiplikation mit Skalaren, 122 Multiplikationssatz – für Determinanten, 180 multiplikative Schreibweise, 111 N Nachrichtentechnik, 216 Nebendiagonalelement, 274 Nebenklasse, 117 negativ definite Matrix, 193 negativ semidefinite Matrix, 193 neutrales Element, 110 Newtonsches Verfahren, 232 nilpotente Matrix, 283 Norm, 143 – euklidische, 12 Normalform – einer Drehung, 311 – einer quadratischen Form, 231 – orthogonale, 351 Normalformsatz, 202, 231 Normalgleichung, 341 – Lösung der, 346 Normalteiler, 113 normierter linearer Raum, 143 – vollständiger, 144 n-Tupel, 75 Nullmatrix, 148 – Neutralität der, 151 Nullpolynom, 284 Nullpunkt, 2 Nullraum – einer Matrix, 160 Nullvektor, 9 numerischer Vektor, 138 numerisches Lösungsverfahren – iteratives, 269 – konvergentes, 270 O obere Dreiecksmatrix, 193 Optimallösung, 339 Ordinate, 2 orthogonal, 23 Orthogonalbasis, 135 orthogonale

Stichwortverzeichnis

– Normalform, 351 orthogonale Matrix, 192, 193 orthogonales Komplement, 85, 142, 263 Orthogonalisierungsverfahren – Schmidtsches, 84 Orthogonalprojektion, 340 Orthonormalbasis, 68, 142, 229, 230 Orthonormalsystem, 142, 193 Ortspfeil, 9, 43 Ortsvektor, 9, 26 P Parabel, 332 Paraboloid – elliptisches, 336 – hyperbolisches, 336 Parallelogrammgleichung, 38 Parallelschaltung von Vierpolen, 152 Parameter, 27 Parameterform – einer Geraden, 33 – einer Geraden im R3 , 70 Parameterform der Geraden, 26 Permutation – Fehlstand einer, 115, 169 – gerade, 115, 169 – ungerade, 115, 169 Permutationsgruppe, 113 Permutationsmatrix, 192, 265 Pfeil, 8, 42 – Aufpunkt des, 8 – Fußpunkt des, 8 – Spitze des, 8 Polarkoordinaten, 7 Polynom – annullierendes, 286 – erzeugendes, 284 – komplexes, 284 – reelles, 284 – zweiten Grades, 326 positiv definite Matrix, 193 positiv semidefinite Matrix, 193 Potentialtheorie, 264 Potenzen, 120 Potenzreihe, 296 Poyntingscher Vektor, 60 Prä-Hilbertraum, 141 Prisma, 65 Produkt – äußeres, 50 – inneres, 24 Projektion, 22 Projektionsvektor, 46 Pseudoinverse, 351 Punkt, 122, 332 – in der Ebene, 9

p-zeiliges Trapezsystem, 96, 102 Q Q R-Verfahren, 259 quadratische – Ergänzung, 201 – Matrix, 148 quadratische Ergänzung, 327 quadratische Form, 200 quadratisches lineares Gleichungssystem – reguläres, 101 – singuläres, 102 Quadrik, 326 – Hauptachsen einer, 329 – im R3 , 333 – Mittelpunkt der, 329 R Randwertproblem, 264 Rang – einer Matrix, 159 – – Berechnung des, 161 – einer Menge von Vektoren, 105 Rangbeziehungen, 160 Rangkriterium, 261, 337 Rechenregeln für das Spatprodukt, 63 rechte Dreiecksmatrix, 185, 192, 193 rechte unipotente Matrix, 192 Rechte-Hand-Regel, 50 Rechtssystem, 50 rechtwinklig, 23 Reduktion durch unipotente Matrizen, 201 reelles – Polynom, 284 Regeln der Bruchrechnung, 120 Relativbeschleunigung, 18 relative – Trägkeitskraft, 19 Relativitätstheorie, 17 Resonanzeffekt, 216 Rest, 289 Restklassenkörper modulo p, 121 Resultierende, 13 Richtung, 47 Richtungscosinus, 48 Richtungscosinus-Matrix, 383 Ring, 121 – kommutativer, 121 Roboter, 376 Robotik, 379 rotierende Achse, 211 S Säkulargleichung, 212 Sarrussche Regel, 49, 53 Sattel, 336

411

412

Stichwortverzeichnis

Satz – des Pythagoras, 142 – des Pythagoras im Rn , 83 – über die Hauptachsentransformation, 202 – von Euler über Drehmatrizen, 315 – von Jacobi, 202 – von Lagrange, 118 Satz von – Cayley-Hamilton, 287 schiefe Ebene, 14 schiefhermitesche Matrix, 193 schiefsymmetrische Matrix, 193 Schmidtsches Verfahren, 233 Schmitdsches Orthogonalisierungsverfahren, 142 Schnitt eines Graphen, 369 schwach besetzte Matrix, 269 schwaches – Spaltensummenkriterium, 275 – Zeilensummenkriterium, 274 Schwarzsche Ungleichung, 77 schwingende Tragfläche, 211 Schwingung – starr gekoppelte, 251 Segment eines Roboters, 376 Seitenhalbierende, 39 senkrecht, 23 shiften, 221 Signatur, 234 Signatur einer Matrix, 204 Singulärwertzerlegung, 351, 352 Sinus, 3 Skalar, 122 skalare Multiplikation eines Vektors, 10 Skalarmatrix, 192 Spaltenindex, 148 Spaltenmatrix, 153 Spaltenpivotierung, 93 Spaltenraum – einer Matrix, 160 Spaltensummenkriterium – schwaches, 275 – starkes, 272 Spaltenvektor, 153 – Einträge des, 75 – Komponenten des, 75 – Koordinaten des, 75 – reeller, 75 Spaltenzahl, 148 Sparse-Matrix, 269 Spatprodukt, 49, 68 Spektralradius, 270, 272 Spektralradius einer Matrix, 212 Spektrum einer Matrix, 212 Spiegelung, 304, 305, 307, 318 Spiegelungsmatrix, 305–307 Spur einer Matrix, 217

Stabendkraft, 362 Stabkraft-Vektor, 365 Stabwerk, 359 Stäbe, 359 starkes – Spaltensummenkritierium, 272 – Zeilensummenkriterium, 272 starrer Körper, 376 Startvektor, 270 strukturverträgliche Abbildung, 133 Subdiagonalmatrix, 193 Subtraktion – von Vektoren, 10 Summe von Unterräumen, 130 Superdiagonalmatrix, 193 surjektiv, 136 Symmetriegruppe, 114 symmetrische Matrix, 193 T Tangens, 5 Teilraum, 79 Tetraeder, 65 Totalpivotierung, 96 Trägheitsellipsoid, 336 Trägheitsindex, 234 Trägheitsindex einer Matrix, 204 Trägheitskraft – relative, 19 Trägheitssatz, 234 Transformation einer Matrix, 220 – auf Jordansche Normalform, 236 Transformationsinvarianz, 222 Transformationsmatrix, 247 Translationsanteil, 323 transponiert, 76 Transponierte, 152 Transposition, 114 Transpositionsregel, 170 Trapezsystem, 161 Turm, 211 U Übergangsmatrix, 319, 322 Umkehrabbildung, 166 unitäre Matrix, 192 Unterdeterminante, 179 untere Dreiecksmatrix, 193 Untergruppe, 113 – echte, 113 – Linksnebenklasse einer, 117 – Rechtsnebenklasse einer, 117 – triviale, 113 – volle, 113 Untermatrix, 162, 183, 209 Unterraum, 79, 160, 261

Stichwortverzeichnis

– Basis eines, 79 – Dimension eines, 79 – eines Vektorraumes, 126 unzerlegbare Matrix, 274 Ursprung, 2 V Vektor, 122 – Betrag eines, 76 – dreidimensionaler, 42 – euklidische Norm eines, 76 – Komponenten des, 8 – Koordinaten des, 8 – Länge eines, 12, 76 – negativer, 10 – numerischer, 138 – räumlicher, 42 – verschieblicher, 43 – zweidimensionaler, 8 Vektoren, 1 – Addition von, 10, 75 – inneres Produkt zweier, 76 – kollineare, 67 – komplanare, 67 – linear unabhängige, 68 – Multiplikation mit einem Skalar, 75 – Skalarprodukt zweier, 76 – Subtraktion von, 10, 75 Vektorraum, 11 – Dimension eines, 126 – endlichdimensional, 126 – euklidischer, 141 – Kopie eines, 137 – n-dimensionaler reeller, 75 – über einem Körper K, 121 – unendlichdimensionaler, 126 Vektorraum-Homomorphismus, 133 Verknüpfung, 108 Verschieben von Eigenwerten, 221 Vielfachheit – algebraische, 223 – geometrische, 223 Vierpol, 152 vollständige Pivotierung, 93 Vorwärtselimination, 278 W Walze, 14 Weierstraß-Jordansche Normalform, 236 Wertebereich – eines Gruppen-Homomorphismus, 117 windschiefe Geraden, 70 Winkel, 3, 48 – zwischen zwei Elementen eines euklidischen Vektorraums, 142 Winkelanordnung, 155

Winkelgeschwindigkeitsvektor, 231 Wirkungslinie – der Kraft, 14 – der Resultierenden, 14 Z Zeilen-Pivotierung, 93 Zeilenindex, 148 Zeilenmatrix, 153 Zeilenraum – einer Matrix, 160 Zeilensummenkriterium – schwaches, 274 – starkes, 272 Zeilenvektor, 75, 153, 193 Zeilenzahl, 148, 179 Zentrifugalkraft, 18 Zentripetalbeschleunigung, 18 Zentripetalkraft, 18 zerlegbare Matrix, 274 Zwei-Massen-Schwinger, 214 Zweig, 366 Zwischenwinkel, 25, 46 Zylinder, 330 – elliptischer, 336 – hyperbolischer, 336 – parabolischer, 336

413