Lineare Algebra [5., verb. Aufl. Reprint 2019] 9783111682419, 9783111295732


287 59 29MB

German Pages 341 [344] Year 1970

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Vorwort
Inhaltsverzeichnis
Einleitung
Erstes Kapitel. Grundhegriffe
Zweites Kapitel. Unterräume, Basis, Koordinaten
Drittes Kapitel. Abbildungen
Viertes Kapitel. Lineare Gleichungssysteme, Determinanten
Fünftes Kapitel. Äquivalenz und Ähnlichkeit von Matrizen
Sechstes Kapitel. Euklidische und unitäre Vektorräume
Siebentes Kapitel. Anwendungen in der Geometrie
Achtes Kapitel. Quotientenräume, direkte Summe und direktes Produkt
Neuntes Kapitel. Allgemeines Normalformenproblem
Zehntes Kapitel. Duale Raumpaare und Dualraum
Elftes Kapitel. Multilineare Algebra
Lösungen der Aufgaben
Namen- und Sachverzeichnis
Recommend Papers

Lineare Algebra [5., verb. Aufl. Reprint 2019]
 9783111682419, 9783111295732

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

de Gruyter Lehrbuch Kowalsky • Lineare Algebra

Lineare Algebra

Dr. Hans-Joachim Kowalsky o. Professor an der Technischen Universität Braunschweig

5., verbesserte Auflage

Walter de Gruyter & Co • Berlin 1970 vormals G. J. Göschen'sche Verlagshandlung • J . Guttentag, Verlagsbuchhandlung • Georg Reimer • Karl J . Trübner • Veit & Comp.

© Copyright 1970 by Walter de Gruyter & Co., vormals G. J. Göschen'sche Verlagshandlung — J . Guttentag, Verlagsbuchhandlung — Georg Reimer — Karl J. Trübner — Veit & Comp., Berlin 30. — Alle Rechte, einschl. der Rechte der Herstellung von Photokopien und Mikrofilmen, vom Verlag vorbehalten. — Archiv-Nr. 12 05 701 — Satz u. Druck: Walter de Gruyter & Co., Berlin — Printed in Germany.

Vorwort Die Lineare Algebra muß heute zu den wichtigsten Grundstrukturen gerechnet werden, auf denen weite Teile der Mathematik basieren. Die Vertrautheit mit den Begriffsbildungen und Ergebnissen der linearen Algebra gehört daher mit an den Anfang des Mathematikstudiums. Demgemäß wendet sich auch das vorliegende Lehrbuch an den Anfänger, bei dem indes bereits eine gewisse Übung im mathematischen Denken und Schließen sowie einige grundsätzliche Kenntnisse vorausgesetzt werden. In Vorlesungen wird die Lineare Algebra häufig im Rahmen der Analytischen Geometrie behandelt. Dieses Buch ist jedoch kein Lehrbuch der Analytischen Geometrie: die Anwendung der Linearen Algebra auf die Geometrie steht nicht im Vordergrund und erfolgt auch nur in dem erforderlichen Umfang. Der auf den Anfänger bezogene Lehrbuchcharakter und der beschränkte Umfang erforderten auch eine Beschränkung in der Stoffauswahl. So wird die Lineare Algebra hier rein als die Theorie der Vektorräume über kommutativen Körpern entwickelt, während auf den allgemeineren Begriff des Moduls nicht eingegangen wird. Andererseits ist jedoch der Begriff des Vektorraums von vornherein möglichst allgemein und ohne Dimensionseinschränkung gefaßt. Allerdings wird hierbei auf Fragen, die speziellere Kenntnisse erfordern, nur in Hinweisen oder besonderen Ergänzungen eingegangen. Dem Verlag möchte ich an dieser Stelle für sein vielfältiges Entgegenkommen und dafür danken, daß er das Erscheinen dieses Buches ermöglicht hat. Mein besonderer Dank gilt Fräulein A. M. Fraedrich, die die mühevollen Korrekturarbeiten auf sich genommen und mich mit wertvollen Ratschlägen unterstützt hat. H.-J. KOWALSKY

Inhaltsverzeichnis Einleitung

8 Erstes Kapitel Grundbegriffe

§ § § §

1 2 3 4

Mengentheoretische Grundbegriffe Gruppen Körper und Hinge Vektorr&ume

11 15 19 23

Zweites Kapitel Unterräume, Basis, Koordinaten § 5 Unterräume § 6 Basis und Dimension § 7 Koordinaten

29 33 40 Drittes Kapitel Abbildungen

§ 8 § 9 § 10 §11

Lineare Abbildungen Abbildungsräume, Matrizen Produkte von Abbildungen und Matrizen Lineare Selbstabbildungen

49 55 61 66

Viertes Kapitel Lineare Gleichungssysteme, Determinanten § 12 § 13 § 14 § 15

Lineare Gleichungssysteme Determinanten Berechnung von Determinanten, Entwicklungssatz Anwendungen

71 81 89 95

Fünftes Kapitel Äquivalenz und Ähnlichkeit von Matrizen § 16 Äquivalenz von'Matrizen § 17 Ähnlichkeit, Eigenvektoren, Eigenwerte

100 105

Sechstes Kapitel Euklidische und nnitäre Vektorräume § 18 Das skalare Produkt § 19 Betrag und Orthogonalität

115 122

Inhaltsverzeichnis §20 § 21 § 22 § 23 § 24

Orthogonalisierung Adjungierte Abbildungen Selbstadjungierte Abbildungen Orthogonale und unitäre Abbildungen Drehungen

7 128 136 143 149 155

Siebentes Kapitel Anwendungen in der Geometrie §25 § 26 § 27 §28 § 29 § 30

Affine Bäume Affine Abbildungen Projektive Räume Projektivitäten Projektive Hyperflächen 2. Ordnung Affine Hyperflächen 2. Ordnung

165 171 177 186 191 200

Achtes Kapitel Quotientenräume, direkte Summe, direktes Produkt § 31 Quotientenräume § 32 Direkte Summe und direktes Produkt § 33 Zusammenhang mit linearen Abbildungen

212 216 222

Neuntes Kapitel Allgemeines Normalformenproblem § 34 Polynome § 35 Allgemeine Normalform § 36 Praktische Berechnung, Jordansche Normalform

228 234 242

Zehntes Kapitel Duale Ranmpaare nnd Dualraum § 37 Duale Baumpaare § 38 Der Dualraum § 39 Duale Abbildungen

250 256 260 Elftes Kapitel Multilineare Algebra

§ 40 § 41 § 42 §43 § 44 § 45 § 46 §47

Multilineare Abbildungen und Tensorprodukte Tensorielle Produkte linearer Abbildungen Tensormultiplikation und Verjüngung Tensorielle Abbildungen Alternierende Abbildungen Das äußere Produkt Tensoralgebra und äußere Algebra Innere Produkte, Zerlegbarkeit

265 272 277 284 288 296 303 309

Lösungen der Aufgaben

315

Namen- und Sachverzeichnis

337

Einleitung In der Mathematik hat man es vielfach mit Rechenoperationen zu tun, die sich zwar auf völlig verschiedene Rechengrößen beziehen und somit auch auf ganz unterschiedliche Weise definiert sein können, die aber trotz dieser Verschiedenheit gemeinsamen Rechenregeln gehorchen. In der Algebra abstrahiert man nun von der speziellen Natur der Rechengrößen und Rechenoperationen und untersucht ganz allgemein die Gesetzmäßigkeiten, denen sie unterliegen. Ausgehend von einigen Rechenregeln, die man als Axiome an den Anfang stellt, entwickelt man die Theorie der durch diese Axiome charakterisierten abstrakten Rechenstrukturen. Die Lineare Algebra bezieht sich speziell auf zwei Rechenoperationen, die sogenannten linearen Operationen, und auf die entsprechenden Rechenstrukturen, die man als Vektorräume bezeichnet. Die grundlegende Bedeutung der Linearen Algebra besteht darin, daß zahlreiche konkrete Strukturen als Vektorräume aufgefaßt werden können, so daß die allgemein gewonnenen Ergebnisse der abstrakten Theorie auf sie anwendbar sind. So besteht z. B. die Analytische Geometrie in erster Linie in der Anwendung der Linearen Algebra auf die Geometrie, die die algebraische Fassung und rechnerische Behandlung geometrischer Gebilde ermöglicht. Umgekehrt gestattet es aber gerade diese Anwendung, Begriffe und Resultate der abstrakten Theorie geometrisch zu deuten und diese geometrischen Interpretationen auf völlig andersartige Modelle von Vektorräumen, wie etwa Funktionenräume, zu übertragen. Das Hauptinteresse der Linearen Algebra gilt indes nicht dem einzelnen Vektorraum, sondern den Beziehungen, die zwischen Vektorräumen bestehen. Derartige Beziehungen werden durch spezielle Abbildungen beschrieben, die in bestimmter Hinsicht mit den linearen Operationen verträglich sind und die man lineare Abbildungen nennt. Ihr Studium erfolgt in zweierlei Weise: Einerseits werden einzelne Abbildungen hinsichtlich ihrer Wirkung und hinsichtlich der Möglichkeiten ihrer Beschreibung betrachtet. In diese Untersuchungen geht noch wesentlich die interne Struktur der Vektorräume ein. Zweitens aber interessiert man sich für die Struktur der Gesamtheit aller linearen Abbildungen, die man auch als Kategorie der linearen Abbildungen bezeichnet. Hierbei treten die Vektorräume nur noch als bloße Objekte ins

Einleitung

9

Spiel, zwischen denen Abbildungen definiert sind, deren interne Struktur aber nicht mehr in Erscheinung tritt. Dennoch können interne Eigenschaften von Vektorräumen auch extern in der Kategorie der linearen Abbildungen beschrieben werden; und gerade diese Möglichkeit spielt in den letzten Kapiteln eine wesentliche Rolle. Vielfach repräsentieren die dort konstruierten Vektorräume hinsichtlich ihrer internen Struktur keineswegs neue Vektorraumtypen. Neu aber ist ihre externe Charakterisierung, die die Existenz wichtiger Abbildungen sichert. An den Anfänger wendet sich dieses Buch hauptsächlich im Sinn einer Ergänzung und Vertiefung. Seine Lektüre erfordert zwar keine speziellen Vorkenntnisse, setzt aber doch bei dem Leser eine gewisse Vertrautheit mit mathematischen Begriffsbildungen und Beweismethoden voraus. Die Stoffanordnung folgt nur teilweise systematischen Gesichtspunkten, die vielfach zugunsten didaktischer Erwägungen durchbrochen sind. Zahlreiche Fragen, die in den Text nicht aufgenommen werden konnten oder die bei dem Leser weitergehende Kenntnisse voraussetzen, werden in besonderen Ergänzungen und meist in Form von Aufgaben behandelt. Auf ein Literaturverzeichnis wurde verzichtet. Jedoch seien in diesem Zusammenhang besonders die entsprechenden Werke von N. Boukbaki und W. Graeub genannt, aus denen zahlreiche Anregungen übernommen wurden. Bei der Numerierung wurde folgendes Prinzip angewandt: Definitionen, Sätze, Beispiele und Aufgaben sind an erster Stelle durch die Nummer des jeweiligen Paragraphen gekennzeichnet. An zweiter Stelle steht bei Definitionen ein kleiner lateinischer Buchstabe, bei Sätzen eine arabische Zahl, bei Beispielen eine römische Zahl und bei Ergänzungen bzw. Aufgaben ein großer lateinischer Buchstabe. Das Ende eines Beweises ist durch das Zeichen • kenntlich gemacht. Neu definierte Begriffe sind im Text durch Fettdruck hervorgehoben; auf sie wird im Sachverzeichnis verwiesen. Am Ende des Buches finden sich die Lösungen der Aufgaben, die aus Platzgründen allerdings sehr knapp gehalten sind. Bei numerischen Aufgaben, deren Schema vorher behandelt wurde, sind im allgemeinen nur die Ergebnisse angegeben. Bei theoretischen Aufgaben handelt es sich meist um Beweisskizzen oder um einzelne Hinweise, aus denen der Beweisgang entnommen werden kann.

Erstes Kapitel

Grundhegriffe Die lineare Algebra kann kurz als die Theorie zweier spezieller Rechenoperationen, der sogenannten linearen Operationen, gekennzeichnet werden. Die diesen Operationen entsprechenden algebraischen Strukturen werden lineare Bäume oder Vektorräume genannt. Man kann daher die lineare Algebra auch als Theorie der Vektorräume bezeichnen. Der somit für das ganze Buch grundlegende Begriff des Vektorraums wird einschließlich einiger einfacher Eigenschaften im letzten Paragraphen dieses Kapitels behandelt. Vorbereitend wird in § 2 auf eine allgemeinere algebraische Struktur, die Gruppen, eingegangen. Schließlich setzt die allgemeine Definition des Vektorraums noch den Begriff des Körpers voraus, zu dem man durch die abstrakte Behandlung der rationalen Rechenoperationen geführt wird. Mit den Körpern und den mit ihnen eng zusammenhängenden Ringen befaßt sich der dritte Paragraph. Neben diese algebraischen Grundlagen treten als wesentliche Voraussetzung noch einige einfache Begriffe der Mengenlehre, die im ersten Paragraphen aus Gründen der Bezeichnungsnormierung zusammengestellt werden. Der Mengenbegriff wird dabei als intuitiv gegeben vorausgesetzt; auf die axiomatische Begründung wird nicht eingegangen. § 1 Mengentheoretische Grundbegriffe

Die Objekte, aus denen eine Menge besteht, werden ihre Elemente genannt. Für „x ist ein Element der Menge M" schreibt man ,,x e M". Die Negation dieser Aussage wird durch „x ( M" wiedergegeben. Statt „a^ € M und . . . x„ e M" geschrieben. Eine spezielle Menge und x„ e M" wird kürzer „x1 ist die leere Menge, die dadurch charakterisiert ist, daß sie überhaupt keine Elemente besitzt. Sie wird mit dem Symbol 0 bezeichnet. Weitere häufig auftretende Mengen sind: Z Menge aller ganzen Zahlen. R Menge aller reellen Zahlen. C Menge aller komplexen Zahlen.

12

Grundbegriffe

Eine Menge M heißt Teilmenge einer Menge N (in Zeichen: M < N), wenn aus x e M stets x € N folgt. Die leere Menge ist Teilmenge jeder Menge; außerdem ist jede Menge Teilmenge von sich selbst. Gilt M £ N und M 4= iV, so heißt M eine echte Teilmenge von N. Die Elemente einer Menge © können selbst Mengen sein. Es wird dann © bisweilen auch als Mengensystem bezeichnet. Unter dem Durchschnitt D eines nicht-leeren Mengensystems © versteht man die Menge aller Elemente, die gleichzeitig Elemente aller Mengen des Systems sind: Es ist also x e D gleichwertig mit x e M für alle Mengen M e ©. Man schreibt D =

n M i.fe®

oder auch

D = fl {M: M e © } .

Besteht das System aus nur endlich vielen Mengen Mlt..., Mn, so bezeichnet man den Durchschnitt dieser Mengen auch mit M1 Ei) + b(Y eine lineare Abbildung der behaupteten Art, so folgt wegen der Linearitätseigenschaften V Q: v = 1 , . . ., n\ q = 1,. . r } die zu den gegebenen Basen B und B* gehörende kanonische Basis von L(X, Y). Jede Abbildung

= n.

Aufgabe: E s gilt | m — n |

Rg (

) -¿Lm + n.

9C Es seien X und Y zwei endlich-dimensionale, reelle Vektorräume. Hinsichtlich je einer Basis von X und Y sei der linearen Abbildung (p-.X-^Y die Matrix

zugeordnet. Ferner seien (3, 2, 1, 1), (1, 0, - 2 , - 3 ) , ( - 2 , 5, 5, 0) die Koordinaten von Vektoren j l t j 2 , j 3 aus X . Aufgabe: 1). Welchen Rang besitzt q>1 2). Wie lauten die Koordinaten der Bildvektoren Basis von Y I

qy£lt j3 hinsichtlich

der gegebenen

3). Welche Dimension besitzt der von j^, j 2 , j 3 aufgespannte Unterraum U von und welche Dimension besitzt sein Bild Z seien zwei lineare Abbildungen. Dann ist die Produktabbildung y>o(p definiert (vgl. § 1). Wegen {f°((Eü) =

= iv>°-1( • • • > En gilt ^l(El> • • •» En) =cAs(%l,...,

E„).

Beweis: Wegen 13. 3 gilt / d 2 ( a 1 , . . a B ) 4= 0. Die Definition von c ist daher überhaupt sinnvoll. Wegen 13. 4 erhält man 4 (Ei

En) — [

(sgn n) x1>nl • • •

A ^

aj

= c [ 2 (sgn n) xUnl • • • xn>nn] Az(alt..., »e@n

a„)

= cAa(%1, . . ., En)Wählt man hierbei für Ei> • • •> j n speziell eine zweite Basis von X, so folgt Aifa,..., %n) = c; ¿a(Ei> • • -, E») d. h. dieser Quotient ist unabhängig von der Wahl der Basis.



13.6 Es sei 9?: X Y ein Isomorphismus. Ist dann A eine Determinantenform von Y, so wird durch ¿ M E i , - - - . E«) = ^(, t. Der Entwicklungssatz nimmt jetzt folgende Form an: \)i+,ai

Det A =

Det A* .

»=i Den Ausdruck (— 1) rA verschwinden.) Dann gilt Rg A = rÄ. Beweis: Es gelte Rg A = r, wegen A =|= 0 also r > 0 . Dann gibt es r linear unabhängige Zeilen von A, die eine r-zeilige Untermatrix Ax von A bestimmen. Da dann auch Rg Ax = r gilt, gibt es wegen 9. 3 in A1 weiter r linear unab-

96

Lineare Gleichungssysteme, Determinanten

hängige Spalten, die ihrerseits eine r-reihige quadratische Untermatrix A2 von Ax, also auch von A bestimmen. Wegen Rg A2 — r und wegen 11. 5, 13.7 gilt Det A2 4=0 und daher r H

ar,nx»

schreiben kann. Setzt man hier auf der rechten Seite für xr+1 , . . .,x„ beliebige Werte cr+1,..., c„ ein, so erhält man ein lineares Gleichungssystem mit quadratischer Koeffizientenmatrix, auf das man 15. 2 anwenden kann. Man gewinnt als eindeutig bestimmte Lösung xi

1 - pet^o

r j ? (be ~

a

e ,r+l

c r+l

e.«

a

cn)

( A d J ae,i)

(*' = 1, . .

r).

Zusammen mit xr+1 = c r + 1 , . . . , xn — cn ist dies die allgemeine Lösung von (*). Als Beispiel für diese Methode diene nochmals das Beispiel aus 1 2 . 1 : a^ +

3x 4 =

9

9x 2 — 2x3 — 11 x4 =

—3

+ 12 x2 — 6X3 — 8x4 =

6

2xt +

3a;2 — 4txa +

6a;2 + 2x3 — 14a;4 = — 12 .

Vorausgesetzt werden soll bereits die Kenntnis, daß die Koeffizientenmatrix den Rang 2 besitzt. Als reguläre Untermatrix kann dann die aus den ersten beiden Zeilen und der ersten und dritten Spalte entnommene Matrix

mit Det A0 — 10 dienen. Es muß jetzt allerdings x2 = cx und xt — c2 gesetzt werden. Das verkürzte Gleichungssystem lautet nun — 4X3 = 9 — 3c t — 3C 2 3XI — 2X3 = — 3 — 9c x +

llcj.

§ 15 Anwendungen

99

D i e CßAMEEsche R e g e l l i e f e r t

X l

~

1

(9 — 3 c x — 3 c 2 )

10

( - 3 -

— 4

9Cl + llc2)

- 2

=

1Ö(~

3 0

-

3 0 c

i

+50c2)

— " " 3 ~ 3 Cj *j" 5 Cg j 1 10

3C 2 )

1

(9 — 3 ct

3

( - 3 — 9^ +



=

llc2)

1 ö

-(-30

= -

+20c2)

3 + 2ca.

Diese L ö s u n g s t i m m t m i t d e r i n 1 2 . 1 g e w o n n e n e n ü b e r e i n .

Ergänzungen nnd Aufgaben 15A Aulgabe: Bestimme den Rang der reellen Matrix

mit Hilfe von 15.1. 15B Aulgabe: Berechne die Inverse der Matrix aus 12. I I mit Hilfe von 15. 3. 15 C Für die reguläre quadratische Matrix A = ( a f t , ) gelte n ,f1a'>a*>'

M =

(o

% = h f Ü r

i=M.

Aufgabe: Folgere, daß Det A = ± 1 und aiti = (Det A) (Adj ak

7*

gilt.

Fünftes Kapitel

Äquivalenz und Ähnlichkeit von Matrizen Ein und derselben linearen Abbildung Y endlich-dimensionaler Räume sind hinsichtlich verschiedener Basen von X und Y im allgemeinen auch verschiedene Matrizen zugeordnet. Die Eigenschaft zweier Matrizen, hinsichtlich geeigneter Basen dieselbe lineare Abbildung zu beschreiben, wird als Äquivalenz dieser beiden Matrizen bezeichnet. Im ersten Paragraphen dieses Kapitels wird nun die Frage untersucht, ob sich die einer gegebenen linearen Abbildung zugeordnete Matrix durch geeignete Wahl der Basen möglichst einfach gestalten läßt; d. h. ob es zu jeder Matrix eine äquivalente Matrix möglichst einfacher Normalgestalt gibt. Im zweiten Paragraphen des Kapitels wird sodann die entsprechende Frage für die Endomorphismen eines Vektorraums untersucht, die hier zu dem Begriff der Ähnlichkeit quadratischer Matrizen führt. Sie wird jedoch an dieser Stelle nur für einen einfachen Spezialfall gelöst; nämlich für solche Matrizen, die sich auf Diagonalform transformieren lassen. In diesem Zusammenhang wird ausführlich auf die wichtigen Begriffe „Eigenvektor", „Eigenwert" und „charakteristisches Polynom" eingegangen.

§ 16 Äquivalenz von Matrizen In diesem Paragraphen seien X und Y zwei endlich-dimensionale Vektorräume mit Dim X — n und Dim Y = r. Gegeben sei jetzt eine lineare Abbildung Y. Hinsichtlich einer Basis Bx von X und einer Basis By von Y entspricht ihr dann umkehrbar eindeutig eine (n, r)-Matrix A. Die folgenden Untersuchungen beziehen sich auf die Frage, ob durch geeignete Wahl der Basen Bx und By eine möglichst einfache Gestalt der Matrix A erzielt werden kann. Zunächst soll jedoch gezeigt werden, wie diese Frage auch noch anders gefaßt werden kann. Definition 16 a: Zwei (n, r)-Matrizen A und B heißen äquivalent {in Zeichen: A— B), wenn es reguläre Matrizen S und T mit B = SAT gibt.

§ 1 6 Äquivalenz von Matrizen

101

Entsprechend der Zeilen- und Spaltenzahl ist hierbei 8 eine w-reihige und T eine r-reihige quadratische Matrix. Die so zwischen Matrizen gleicher Zeilen- und Spaltenzahl definierte Relation ist tatsächlich eine Äquivalenzrelation (vgl. HC): Wegen A =EnAEr gilt A ~ A. Aus A ~ B, also aus B = SAT, folgt A = 8~1BT~1 und somit B ~A. 0=8'BT', Schließlich folgt aus A ~ B und B ~ C, also aus B = SAT und auch C = (S'S)A(TT'). Da die Produktmatrizen 8'8 und TT' wieder regulär sind, erhält man A — G . Hinsichtlich dieser Äquivalenzrelation zerfällt die Menge aller (n, r)-Matrizen in paarweise fremde Äquivalenzklassen. Mit der oben aufgeworfenen Frage steht der soeben eingeführte Äquivalenzbegriff in unmittelbarem Zusammenhang: Nach 10.4 ist nämlich die Gleichung B = 8AT gleichbedeutend damit, daß die Matrizen A und B hinsichtlich geeigneter Basen dieselbe lineare Abbildung Y beschreiben. Das oben formulierte Problem ist daher gleichwertig mit der Frage, ob man in jeder Äquivalenzklasse von (n, r)-Matrizen einen möglichst einfachen Repräsentanten auszeichnen kann. Daß dies tatsächlich möglich ist, zeigt der nachstehende Satz. Als einfache Normalformen treten dabei folgende Matrizen auf: Für jede natürliche Zahl k mit 0 ^ k ^ min (n, r) sei Dk diejenige (n, r)Matrix, die an den ersten k Stellen der Hauptdiagonale eine Eins, sonst aber lauter Nullen aufweist: 1 1

0 0 Speziell ist D„ die Nullmatrix. 16.1 Zwei (n, r)-Matrizen sind genau dann äquivalent, wenn sie denselben Rang besitzen. Jede (n, r)-Matrix A ist zu genau einer der Matrizen Dk äquivalent, und zwar zu derjenigen, für die k = Rg A gilt. Beweis: Einer gegebenen (n, r)- Matrix A entspricht hinsichtlich fester Basen von X und Y eindeutig eine lineare Abbildung

Y. Es gelte Rg

— n — k. Dann sei { 0 i + 1 , . . . , a«} eine Basis von Kern , Sp A). Für die Spur einer quadratischen Matrix A = (a^,) erhält man unmittelbar durch Entwicklung der Determinante Det (A — tE) nach Potenzen von t Sp A = ahl

H

+

,n-

an

Die Spur einer Matrix ist also die Summe ihrer Hauptdiagonalelemente. Ahnliche Matrizen besitzen dieselbe Spur. Für Diagonalmatrizen gilt auch die Umkehrung des letzten Satzes: 17.6 Zwei Diagonalmatrizen sind genau dann ähnlich, wenn sie dasselbe charakteristische Polynom besitzen. Gleichwertig hiermit ist, daß sich die beiden Diagonalmatrizen nur in der Reihenfolge ihrer Diagrmalelemente unterscheiden. Beweis: Die Diagonalelemente einer Diagonalmatrix sind nach 17. 2 gerade ihre Eigenwerte. Da ihre Anzahl gleich dem Grad des charakteristischen Polynoms ist, folgt: Zwei Diagonalmatrizen besitzen genau dann dasselbe charakteristische Polynom, wenn sie sich nur in der Reihenfolge ihrer Diagonalelemente unterscheiden. Bedeutet nun 8 die Matrix des Typs (a) aus dem vorangehenden Paragraphen, so ist die zu der Diagonalmatrix D ähnliche Matrix SDS-1 wieder eine Diagonalmatrix, die sich von D nur durch die

111

§ 17 Ähnlichkeit, Eigenvektoren, Eigenwerte

Vertauschung des i-ten und fe-ten Diagonalelements unterscheidet. Daher sind auch alle Diagonalmatrizen mit gleichen Diagonalelementen ähnlich. + 17. 7 Es seien a x , . . . , dr Eigenvektoren des Endomorphismus

1. Ihr charakteristisches Polynom ist /( 0 für a^t^b. Setzt man für je zwei Funktionen f,geX ß(f,9)=fmf(t)9(t)dt, a so ist ß ein skalares Produkt von X. (Dies gilt nicht mehr, wenn X sogar aus allen in [a, 6] integrierbaren Funktionen besteht; dann ist nämlich ß nicht mehr positiv definit.) Ein reeller Vektorraum, in dem zusätzlich ein skalares Produkt ß ausgezeichnet ist, wird ein euklidischer Vektorraum genannt. Da in einem euklidischen Vektorraum das skalare Produkt fest gegeben ist, kann man auf das unterscheidende Funktionszeichen ß verzichten. Man schreibt daher statt /S(j, 15) kürzer nur j • t) oder bisweilen auch (j, t)). Die zweite Bezeichnungsweise ist besonders in den Fällen üblich, in denen die Schreibweise 5 • t) zu Verwechslungen führen kann. Dies gilt z. B. für Funktionenräume, in denen ja neben dem skalaren Produkt auch noch die gewöhnliche Produktbildung für Funktionen definiert ist. In einem euklidischen Vektorraum ist hiernach das skalare Produkt durch folgende Eigenschaften gekennzeichnet: (Ii +E«)'»J = 5 i ' 9 + & • ! } . (CS)-*) = c ( S ' t ) ) . i ' t ) =*)•£> j • j > 0 für 1 #= 0. Die jeweils zweiten Iinearitätseigenschaften I ' Ü J i + >?«) = I ' » ) i + ! ' » ) •

und

l- (clj)

=c(i-1))

folgen aus den ersten Linearitätseigenschaften und aus der Symmetrie; sie brauchen daher nicht gesondert aufgeführt zu werden. Der Begriff des skalaren Produkts kann auch auf komplexe Vektorräume übertragen werden. Zuvor soll jedoch an das Rechnen mit komplexen Zahlen erinnert werden. Eine komplexe Zahl a besitzt die Form a = + a2i mit reellen Zahlen alt a2 und der imaginären Einheit i. Es heißt ax der Realteil und a 2 der Imaginärteil der komplexen Zahl a. Man schreibt o, = Re a

und

a» = Im a.

Euklidische und unitäre Vektorräume

118

Ist b = b± + b2i eine zweite komplexe Zahl, so gilt a ± b = (ax ± bj) + (a2 ± b2) i, ab = (cj^ — a262) +

+ a2^i) *•

Insbesondere erhält man für die imaginäre Einheit: i2 = — 1. Die zu einer komplexen Zahl a konjugierte Zahl a ist durch a = — a«i definiert. Unmittelbar ergibt sich: a±i»=a±i>,

ab = a• b, (a) = a.

d-f s = 2 E e a ,

a — a —2i Im a .

Die reellen Zahlen sind spezielle komplexe Zahlen; nämlich diejenigen, deren Imaginärteil verschwindet. Dies kann auch so ausgedrückt werden: Die komplexe Zahl a ist genau dann eine reelle Zahl, wenn a = a gilt. Während die reellen Zahlen durch die ^-Beziehung geordnet werden können, ist eine entsprechende, mit den algebraischen Operationen verträgliche Ordnung der komplexen Zahlen nicht möglich. Die Schreibweise a ^ b soll daher stets beinhalten, daß a und b speziell reelle Zahlen sind. Für eine beliebige komplexe Zahl a gilt aa = (Re a? + (Im a) a . Daher ist aa stets eine nicht-negative reelle Zahl, und aa = 0 ist gleichwertig mit a = 0. Man nennt |a|=

+)/aä

den Betrag der komplexen Zahl a. Er besitzt folgende Eigenschaften: |a |

0; | a | = 0 ist gleichwertig mit a = 0 . | ab | = | a | | b |.

Speziell für reelle Zahlen stimmt diese Betragsdefinition mit der üblichen überein. Insbesondere gilt | — a | = | a | , | a | — | a |, | i | = 1. Schließlich kann die Inversenbildung jetzt folgendermaßen beschrieben werden: Ist a eine von Null verschiedene komplexe Zahl, so ist aa eine positive reelle Zahl, und es gilt 1

a

a

a

aa

| a |2

§ 1 8 Das skalare Produkt

119

Weiterhin sei jetzt X ein komplexer Vektorraum; der Skalarenkörper ist also jetzt der Körper C der komplexen Zahlen. Um auch hier den Begriff des skalaren Produkts erklären zu können, muß zuvor der Begriff der Bilinearform modifiziert werden. Definition 18 b: Unter einer HERMiTEschen Form ß von X versteht man eine Zuordnung, die jedem geordneten Paar (j, t)) von Vektoren aus X eindeutig eine komplexe Zahl ß(%, t)) so zuordnet, daß folgende Eigenschaften erfüllt sind: (1)

0(Si + I „ D) =ß(h,

(2)

ß(cz,t))=cß(h

(3)

ßlt),t)=ß(b

t)) +ß(l2,

t}).

t>). U).

Die ersten zwei Forderungen sind die Linearitätseigensehaften hinsichth'ch des ersten Arguments. Forderung (3) tritt an die Stelle der Symmetrie bei reellen Bilinearformen. Sie besagt, daß bei Vertauschung der Argumente der Wert von ß in die konjugiert komplexe Zahl übergeht. 18.1 Für eine HERMiTEscÄe Form ß gilt: ß(%, th +t)2)

=ß(i,

ß(t, c\))=cß{%,

t}1)+ß(b

t),).

t)).

ß (j, j) ist eine reelle Zahl. Beweis: Aus (1) und (3) folgt ß(b

Di + th) = ßÜi + 1)2. S) = ßÖh77)

+ 0 0 ) . . I) = ß(b t)i) + ß(b

W-

Ebenso ergibt sich aus (2) und (3) ß(%, et)) = ß(ct), j) = cß(t); J) = c ß(tj, i) = c ß(h

t)).

Wegen (3) gilt schließlich /5(j, j ) = ß(%, j ) , weswegen ß (j, j ) eine reelle Zahl ist. + Hinsichtlich der zweiten Linearitätseigenschaft und des zweiten Arguments zeigen also die HERMiTEschen Formen ein abweichendes Verhalten: Ein skalarer Faktor beim zweiten Argument tritt vor die Form als konjugiert-komplexe Zahl. Da bei einer HERMiTEschen Form nach dem letzten Satz ß (j, j) stets eine reelle Zahl ist, kann die Definition von „positiv definit" übernommen werden.

120

Euklidische und unitäre Vektorräume

Definition 18 e: Eine HERMTEscAe Form ß heißt positiv definit, wenn aus 5+0 stets ß{l,l) > 0 folgt. Unter einem, skalaren Produkt eines komplexen Vektorraums X versteht man eine positiv definite ÜERMiTEscAe Form von X. Ein komplexer Vektorraum, in dem ein skalares Produkt ausgezeichnet ist, wird ein unitärer Raum genannt. Ebenso wie vorher verzichtet man bei dem skalaren Produkt eines unitären Raumes auf das unterscheidende Funktionszeichen und bezeichnet es wieder mit 15 bzw. (5, t)). Ein zu 1 8 . 1 analoges Beispiel eines unitären Raumes erhält man folgendermaßen: Es sei {a l f a»} eine Basis des komplexen Vektorraumes X. J e zwei Vektoren j , t) e X entsprechen dann komplexe Koordinaten xlt.. ,,xn bzw. y1,..yn, und durch S • tj = xtfi H

h

wird ein skalares Produkt definiert. Ebenso ist im Fall n — 2 auch l •

=

~ ZxiVl ~

i¥i

2x

+ 3*22/2

ein skalares Produkt. Abschließend soll nun noch untersucht werden, in welchem Zusammenhang die euklidischen und die unitären Vektorräume stehen. Trotz der verschiedenartigen Definition der skalaren Produkte wird sich nämlich zeigen, daß die unitären Räume als Verallgemeinerung der euklidischen Räume aufgefaßt werden können. Es sei wieder X ein reeller Vektorraum. Dieser soll nun zunächst in einen komplexen Raum eingebettet werden: Die Menge Z bestehe aus allen geordneten Paaren von Vektoren aus X ; jedes Element besitze also die Form 5 = (j, t)) mit Vektoren j , t) e X. Ist j' = (j', t)') ein zweites Element von Z, so gelte (a)

S + 8 = ( ! + ! ' , «) + $')•

Ist ferner a = ax-\- a2i eine komplexe Zahl, so werde (b)

a j = («ij — a21), arf + a2%)

gesetzt. Man überzeugt sich nun unmittelbar davon, daß Z hinsichtlich der so definierten linearen Operationen ein komplexer Vektorraum mit dem Paar

121

§ 1 8 Das skalare Produkt

(0,0) als Nullvektor ist. In ihn kann der Vektorraum X in folgendem Sinn eingebettet werden: Jedem Vektor j e X werde als Bild das Paar 995 = (j, 0) aus Z zugeordnet. Dann gilt 9>(E 1 + E2) = (Ei + E2> 0) = (Ei> 0) + (Sa, 0) = tpix + Ist außerdem c eine reelle Zahl, so kann man sie auch als komplexe Zahl c = c + Oi auffassen und erhält wegen (b) 0 (E • E) (») •»)) - (E • t)) (i •

= (E ' E) (t)' t)) - | E • t) |

und hieraus weiter die behauptete Ungleichung. Das Gleichheitszeichen gilt jetzt genau dann, wenn e — et) = o erfüllt ist. Zusammen mit dem Fall t) = 0 ergibt dies die zweite Behauptung. + Für jeden Vektor

X gilt E ' E = 0- Daher ist IEI = + ) / E - E

eine nicht-negative reelle Zahl, die man die Länge oder den Betrag des Vektors j nennt. Man beachte jedoch, daß die Länge eines Vektors noch von dem skalaren Produkt abhängt. Im allgemeinen kann man in einem Vektorraum verschiedene skalare Produkte definieren, hinsichtlich derer dann ein Vektor auch verschiedene Längen besitzen kann. 19. 2 Die Länge besitzt folgende

(4) |E + t ) | £ ä | j : | + | t ) | .

Eigenschaften:

(Dreiecksungleichung)

Beweis: Unmittelbar aus der Definition folgt (1). Weiter gilt (2), weil | £ | = 0 gleichwertig mit j • j = 0 , dies aber wieder gleichwertig mit £ = 0 ist. Eigenschaft (3) ergibt sich wegen I «E I = +)/c(E) • (es) = + / c c + / E ' E — I c I I E !• Schließlich erhält man zunächst lE + t)l 2 = (E + t))-(E + i ) ) = E - E + E- t ) + t ) - E + t)-t) = E'E+E-t)+E~T9+t)-t) = | E I2 + 2 Re (E • t» + | t)

124j

Euklidische und unitäre Vektorräume

Nun gilt aber Re (£ • t)) ^ | £ • t) |, und aus 19.1 folgt durch Wurzelziehen | £ • t) | iS | £ | |ty|. Somit ergibt sich weiter l s + m » ^ l i l « + 2 Isl | t ) | + I 9 l , = ( l l l + M ) 8 und damit (4).



Ersetzt man in der Dreiecksungleichung (4) einerseits £ durch £ — t) und andererseits t) durch t) — £ und beachtet man | £ — t) | = | t) — £ |, so erhält man zusammen die Ungleichung

Ein Vektor £ heißt normiert oder ein Einheitsvektor, wenn [ £ | = 1 gilt. Ist r vom Nullvektor verschieden, so ist

x ein normierter Vektor. Iii Aus dem Beweis der Dreiecksungleichung folgt unmittelbar, daß in ihr das Gleichheitszeichen genau dann gilt, wenn Re (£ • h) = | £ | | 1} | erfüllt ist. Wegen Re (£ • t)) ig | £ • t) | | £ | lt)| folgt aus dieser Gleichung auch I E' 9 I — I i i I t) I u n d daher nach 19.1 die lineare Abhängigkeit der Vektoren £ und 15. Setzt man 15 =1= 0 voraus, so muß £ = et) und weiter (Re c) | t) | 2 = Re (et) • t)) = Re (£ • t)) = | £ | | t) | = | c | | t) | 2 , also Re c = | c | gelten. Dies ist aber nur für c 0 möglich. Gilt umgekehrt £ = et) mit c =5 0 oder t) = 0, so erhält man durch Einsetzen sofort Re (£ • t)) = | £ | 11) |. Damit hat sich ergeben: 19. 3 | £ + t) | = | £ | + | t) [ ist gleichwertig mit c 0 gilt.

damit,

daß t) = 0 oder % — et)

Für zwei vom Nullvektor verschiedene Vektoren £, t) definiert man den Kosinus des Winkels zwischen diesen Vektoren durch (*)

i' 9 COS (£, t)) = — Ii M

Wegen | £ • t) | | £ | | t ) | (vgl. 19.1) gilt im Fall eines euklidischen (reellen) Vektorraums — 1 ^ cos (£, t)) iS + 1. Durch (*) wird daher tatsächlich der Kosinus eines reellen Winkels definiert. Multiplikation von (*) mit dem Nenner liefert i ' 9 = l i I 191 cos (£, t)).

§ 19 Betrag und Orthogonalität

125

Ausrechnung des skalaren Produkts ( j — t)) • ( j — t)) und" Ersetzung von j • t) durch den vorangehenden Ausdruck ergibt im reellen Fall die Gleichung 11 - t) I2 = I E I2 + I t) | 2 - 2 111 | t) | cos (j, u). Dies ist der bekannte Kosinussatz für Dreiecke: Zwei Seiten des Dreiecks werden durch die Vektoren j und t) repräsentiert. Die Länge der dem Winkel zwischen j und t) gegenüberliegenden Seite ist dann gerade | £ — t) [. Im Fall eines rechtwinkligen Dreiecks gilt cos (j, t)) = 0 , und der Kosinussatz geht in den Pythagoräischen Lehrsatz über. Der wichtige Spezialfall, daß j und t) einen rechten Winkel einschließen, ist offenbar gleichwertig mit j • t) = 0 . Definition 19a: Zwei Vektoren j, t) heißen orthogonal, wenn £ • t) = 0 gilt. Eine nicht-leere Teilmenge M von X heißt ein Orthogonalsystem, wenn 0 i M gilt und wenn je zwei verschiedene Vektoren aus M orthogonal sind. Ein Orthogonalsystem, das aus lauter normierten Vektoren besteht, wird ein Orthonormalsystem genannt. Unter einer Orthonormalbasis von X versteht man ein Orthonormalsystem, das gleichzeitig eine Basis von X ist. 19.4 Jedes Orthogonalsystem ist linear unabhängig. Beweis: Es sei M ein Orthogonalsystem, und für die paarweise verschiedenen Vektoren alt..ünH M gelte c ^ + • • • + cna„ = o. Für jeden festen Index k mit 1 5S k iS n folgt hieraus 0 schließlich c t = 0. • Wenn {e^ . . . , e„} ein Orthonormalsystem ist, gilt e„ • cv = 0 für [j, 4= v und • t ß = 1. Um diesen Tatbestand bequemer ausdrücken zu können, führt man folgende Bezeichnungsweise ein: Definition 19 b:

Die so definierte Funktion der Indizes /x und v heißt das KisoNECKEit-Symbol.

Euklidische und unitäre Vektorräume

126

19. 6 Es sei {elt..., e„} eine Orthonormalbasis von X. Sind dann xlt..., x„ bzw. y1 yn die Koordinaten der Vektoren j und t) bezüglich dieser Basis, so gilt l • i) = XiVi + — l - *ny« und für die Koordinaten selbst x, = % • e„ (v = 1 Beweis: Wegen ev • e„ =

n).

erhält man

ß

i • t) = ( 2 xver) • ( 2 y t ) = 2 xvyß (e„ • e„) == 2 Wi 1 \/»=i / »,/«=i und

/ n £ * Cv = I 2

\ C/i I *

V=1

/

» —

i«=l

dp y —

xvy„

%^

Dieser Satz gilt sinngemäß auch bei unendlicher Dimension und kann dann ebenso bewiesen werden. Im nächsten Paragraphen wird gezeigt werden, daß man in einem endlichdimensionalen euklidischen bzw. unitären Vektorraum stets eine Orthonormalbasis finden kann. Hinsichtlich einer solchen Basis nimmt dann das in dem Baum gegebene skalare Produkt die in 19. 5 angegebene einfache Form an. Umgekehrt kann 19. 5 aber auch dazu benutzt werden, um in einem beliebigen reellen oder komplexen Vektorraum (endlicher Dimension) ein skalares Produkt zu definieren: Man wähle eine beliebige Basis des Raumes und definiere das skalare Produkt durch die Gleichung aus 19. 5. Hinsichtlich dieses skalaren Produkts ist dann die gewählte Basis eine Orthonormalbasis. Beispiele: 19.1 Für je zwei Vektoren % — (xlt x2) und t) —- {ylt y2) des reellen arithmetischen Vektorraums R 2 sei das skalare Produkt durch l • t) = 4x x y x — 2x 1 y 2 — 2 xtyx + 3 x%y% definiert (vgl. 18. I). Dann bilden die Vektoren er = 6

*

=

und (i/l.jTf)

eine Orthonormalbasis. Es gilt nämlich

§ 19 Betrag und Orthogonalität

Cl

Cl

127

. p * _ 4 . _L . J_ = 1 Cl 2 2 ' .

# '

— 4 . J: — _ o.2 1_ o 4 2 2 |/2 2 j/2 1 1 * 1 _L

62 -

62 =

' 2]/2 ' 2|/2 ~

1 1 ^

' 2]/2 ' ]/2 ~~

1

' j/2 ' 2j/2 '

1

j/2

_

Zwischen den Koordinaten a^, a;2 hinsichtlich der kanonischen Basis ex = (1, 0), e2 == (0,1) und den Koordinaten x*, x* hinsichtlich {ef, e*} besteht wegen * »

-

_ 1c 2

1 "2|/2Cl

i• _L |/2 E 2

+

die Beziehung _ 1 «i " 2

*

J +_

* Xz

2\/2

1

'

*

Einsetzen dieser Werte liefert in der Tat

*•

»

+

-2 (rH

p**)

- 2 (-r*+271**) (71^ + 3

(rH

( f H

=

*

+ A

19. II In dem Vektorraum aller in dem Intervall [— n, + 7i\ stetigen reellen Funktionen wird durch +n

ein skalares Produkt definiert. Hinsichtlich dieses skalaren Produkts bilden die Funktionen -j= , cos (nt), sin (nt) J/2 ein unendliches Orthonormalsystem.

(n = 1, 2, 3, . . . )

Ergänzungen und Aufgaben 19 A Unabhängig von dem Vorhandensein eines skalaren Produkts kann man in reellen oder komplexen Vektorräumen auf mannigfache Art die Länge eines Vektors so definieren, daß ebenfalls die Eigenschaften (1)—(4) aus 19. 2 erfüllt sind. Jedoch lassen sich derartige Längendefinitionen im allgemeinen nicht auf ein skalares Produkt zurückführen.

128

Euklidische und unitäre Vektorräume

Aufgabe: 1). Die durch ein skalares Produkt definierte Länge erfüllt die Parallclogrammgleichung I i + 9 I2 + I i — t)l 2

=

2 ( | j | 2 + | 9 | 2 ).

2). Es sei X ein m-dimensionaler reeller oder komplexer Vektorraum (n 2). Hinsichtlich einer Basis von X seien xlt..., x„ die Koordinaten eines Vektors j . Durch (a)

tiix(s) = | xx \ H

h | xn |,

(b) w2(j) = max {| x1 |,. . ., | xn |}

wird dann jedem Vektor 5 eine „Länge" «^(j) bzw. u)2(x) zugeordnet, die die Eigenschaften (1)—(4) aus 19. 2 besitzt. 3). iCj und «)2 stimmen jedoch mit keinem Längenbegriff überein, der einem skalaren Produkt von X entstammt. 19 B E s seien ^ , . . ., a j linear unabhängige Vektoren eines euklidischen Vektorraums X. Die Menge aller Vektoren

E = »jO! + • • • + xkak

mit 0 ^ xx ^ 1

(x = 1 , . . . , k)

wird dann das von den Vektoren c^, . . . , a k aufgespannte Parallelotop genannt. Es sei nun { e i , . . . , e*} eine Orthonormalbasis des von den Vektoren d j , . . . , a^ aufgespannten Unterraums von X (zur Existenz vgl. § 20). Gilt dann

0* = 2

k

a„,i

A=1

{X = 1, • • ., k),

so nennt man den Betrag der Determinante

®1,1 ' " ' al.k I a

k, 1' ' ' ak,k

das Volumen dieses Parallelotops. Aufgabe: 1). Man beweise die Gleichung (cti • ex) • • • (a t • ek)

(et! • ÖJ) • • • (ax • ak)

( a t • ex) • • • (a k • e k )

(a k • a x ) • • • (at • a*)

2). Folgere, daß die Definition des Volumens unabhängig von der Wahl der Orthonormalbasis ist und daß die in 1) rechts stehende Determinante das Quadrat des Volumens ist. 3). In dem reellen arithmetischen Vektorraum R4 sei das skalare Produkt so definiert, daß die kanonische Basis eine Orthonormalbasis ist. Berechne das Volumen des von den Vektoren (2, 1, 0, —1), (1, 0, 1, 0), ( - 2 , 1, 1,0) aufgespannten Parallelotops.

§ 20 Orthogonalisierung X bedeute stets einen euklidischen oder unitären Vektorraum. Die Sätze dieses Paragraphen beziehen sich vorwiegend auf den Fall endlicher oder höchstens abzahlbar-unendlicher Dimension. Daß sich die Ergebnisse im all-

§ 20 Orthogonalisierung

129

gemeinen nicht auf höhere Dimensionen übertragen lassen, wird am Schluß in den Ergänzungen gezeigt. 20.1 Zu jedem endlichen oder höchstens abzählbar-unendlichen System, {ax, a2,...} linear unabhängiger Vektoren aus X gibt es genau ein entsprechendes Orthonormalsystem {tlr e 2 , . . . } mit folgenden Eigenschaften: (1) Für k = 1, 2 , . . . spannen die Vektoren a 1 ( . . . , a* und t l t . . . , e* denselben Unterräum U^ von X auf. (2) Die zu der Basistransformation { c ^ , . . . , djr}-> { e 1 ; . . . , et} von Uy gehörende Transformationsmatrix besitzt eine positive Determinante D* (4 = 1, 2 , . . .)• Beweis: Die Vektoren elt e 2 , • • • werden induktiv definiert. Bei einem endlichen System {a^ . . . , a„} bricht das Verfahren nach n Schritten ab. Wegen der vorausgesetzten linearen Unabhängigkeit gilt

4= 0. Daher ist

1 Ci = r — . a i |Oi I ein Einheitsvektor, die Vektoren ax und ex spannen denselben Unterraum Ux auf, und es gilt Dt =

> 0. Ist umgekehrt e{ ein Einheitsvektor, der I «x I ebenfalls U1 erzeugt, so gilt ei — ca x . Und da jetzt c die Determinante der Transformationsmatrix ist, muß bei Gültigkeit von (2) außerdem c > 0 gelten. Man erhält 1 = ei • ei = (cc)

• 0 l ) = | c |a | 0 l | a .

Wegen c > 0 folgt hieraus c — \/\a.x\, also t[ — ex. Somit ist ex auch eindeutig bestimmt. Es seien jetzt bereits die Vektoren e 1 ( . . ., e„ so konstruiert, daß (1) und (2) für k — 1 , . . n erfüllt sind. Dann werde zunächst n t> n + i= a«+i — - 2 (a B + 1 • e„) e„ V=1 gesetzt. Wegen 6.4 sind die Vektoren e l f . . . , e*> b„+i linear unabhängig und spannen denselben Unterraum auf wie die Vektoren e t , . . e B , a« +1 , nämlich Un+1. Insbesondere gilt b n + 1 #= o. Wegen ev* = !7)= j o 9*

f(l)9(t)dt

Euklidische und unitäre Vektorräume

132

definiert. Das Orthogonalisierungsverfahren soll auf die Polynome 1 = ei) = j ( t ~ j f dt = o

, also e^i) = |/l2

i

a

(< , e„) =ft*dt o «i (0

-

I).

I

= j,

(t«, ex) = / 1 2 J t*(t - 1 ) dt = - L , o '

( ei) = J (i2 - t + j j d t = - ¿ 0 - , also e2(, e N. Wegen M ± N gilt a e • i>„ = 0 für alle Indizes q und a und daher I -t) = 2

J: xya[at-btt)

e = i /( = 0. »= i Es folgt ( j —

_L i7. Daher ist

die orthogonale Projektion von j in U.



20. 7 Es sei U ein beliebiger Unterraum und j ein beliebiger Vektor von X. Für Vektoren a e Z7 sind dan» folgende Aussagen gleichwertig: (1) a ist orthogonale Projektion von j ¿m i7. (2) -Fttr jeden Vektor vi zU gilt | j —

— it|.

Beweis: Zunächst sei a die orthogonale Projektion von j in U. Es gilt also £ — a _L U. Setzt man t) = a — u, so gilt weiter ö e U und £ — u = ( j — a ) + ö . Man erhält I £ - "I 2 = [(£ - a)+B] • [(i - a ) + ö ] = | 5 - a| a + |ö|2 + 2 Re [(S - o) • ö]. Wegen ö e U und J — a _L U verschwindet der letzte Summand. Daher gilt l£-u|2 = l£-a|s +

|ö|2^U-a|a,

woraus (2) folgt. Umgekehrt sei (2) erfüllt. Zu beweisen ist j — a _L U. Wäre dies nicht der Fall, so würde es einen Vektor b e U mit ( j — a) • ti = c H= 0 geben. Ohne Einschränkung der Allgemeinheit kann | ü | = 1 angenommen werden. Setzt man dann u = a + cb, so gilt u e U und I £ - « la = [(I - a) - cö] • [(£ - a) - ctt] = I £ — ß | 2 + | c | 2 — 2 Re [c(j — a) • 0] = I £ - o la + I e | 2 - 2 | c |t < | s -

a

|2

im Widerspruch zu (2). + 20.8 Für endlichdimensionale Unterräume U von X güt (U1)1 = U. Besitzt auch X endliche Dimension, so gilt weiter Dim UL = Dim X — Dim U. Beweis: Allgemein folgt aus der Definition U £ (UL)L. Es gelte nun j e (L71)1. Da U endliche Dimension besitzt, existiert nach 20. 6 die ortho-

§ 20 Orthogonalisierung

135 e C/ 1 . W e g e n 5 e

gonale Projektion tcv v o n 5 in U, u n d es gilt (5 — erhält m a n ( j —

- 5 = 0 u n d w e g e n % v t Z J auch ( j —



(U1)1

= 0. Es

folgt E P I2 =

IS ~

(S -

also £ = j p u n d s o m i t j € Z7. n u n sogar X

tu) •

S -

D a m i t ist

endliche Dimension,

(I ~

SP) •

(U1)1

=

lu

=

0.

U bewiesen.

so existiert w e g e n 20. 2 eine

Besitzt Ortho-

normalbasis { e 1 ; . . . , e r } v o n U, u n d diese k a n n z u einer Orthonormalbasis { e x , . . . , er, e

r + 1

,..e

n

}

v o n X verlängert werden. D a

C71 offenbar aus

g e n a u denjenigen Vektoren besteht, deren orthogonale Projektion i n U der N u l l v e k t o r ist, ergibt sich w e g e n 20. 6 j e t z t U 1 = [ c r + 1 , . . . , e n ] u n d d a m i t die b e h a u p t e t e Dimensionsbeziehung.

+

Ergänzungen und Autgaben 20 A Es sei F der reelle Vektorraum aller in [0, 1] stetigen reellen Funktionen mit dem skalaren Produkt (/- g) =

ff{t)g{t)dt. 0

Der Unterraum U aller Polynome besitzt abzahlbar-unendliche Dimension. Daher existiert nach 20. 2 eine OrthonormalbasiB von U. Es sei nun / eine von der Nullfunktion verschiedene Funktion aus F. Dann gilt ( / , / ) = a > 0 und \f(t) | < 6 für alle t e [0,1]. Nach dem Approximationssatz von WEIERSTRASS kann / in [ 0 , 1 ] gleichmäßig durch a Polynome approximiert werden. Es gibt also ein Polynom g e TJ mit | /(i) — g(t) | < , und man erhält 1 (/.?) = J m

[/(0— (/(o

-gmdt

0 1

1 ^ f/Ht)dt-

j

1/(01 | m-g(t)

| dt^ (/,/)-6

JL-|.>o.

0 0 Daher ist außer der Nullfunktion keine Funktion aus F zu U orthogonal; d. h. 171 ist der Nullraum und (U1)*- daher der ganze Raum F . Satz 20. 8 gilt somit nicht mehr für unendlich-dimensionale Unterräume. Ebenso gilt auch 20. 2 nicht mehr, weil eine Orthonormalbasis von U nicht zu einer Orthonormalbasis von F erweitert werden kann. Aufgabe: Die Polynome selbst sind die einzigen Funktionen aus F, die eine orthogonale Projektion in U besitzen. 20 B In dem komplexen arithmetischen Vektorraum C 1 sei das skalare Produkt zweier Vektoren j = ( x 1 ( . . . , xt) und t) = {ylt..., t/4) durch j • t) = x^ 4 1- xlyl definiert.

136

Euklidische und unitäre Vektorräume

Aulgabe: Man bestimme eine Basis des orthogonalen Komplements des von den Vektoren 0! = (—1, i, 0,1) und a2 = (»', 0, 2, 0) aufgespannten Unterraums.

§ 21 Adjungierte Abbildungen Es seien X und Y zwei euklidische oder unitäre Räume, und (p sei eine lineare Abbildung von X in Y. Definition 2 1 a : Eine lineare Abbildung

adjungierte Abbildung, so gilt i • (?>*t) -

< A ) = s • — e •

=

n

• t) -

n

• 9

=

Da dies für jeden Vektor j e X gilt, folgt *f» • c, = e, •