Lineare Algebra [2. Aufl. Reprint 2019] 9783111337579, 9783110989144

De Gruyter Book Archive - OA Title

278 105 29MB

German Pages 342 [344] Year 1965

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Vorwort
Inhaltsverzeichnis
Einleitung
Erstes Kapitel: Grundbegriffe
Zweites Kapitel: Unterräume, Basis, Koordinaten
Drittes Kapitel: Abbildungen
Viertes Kapitel: Lineare Gleichungssysteme, Determinanten
Fünftes Kapitel: Äquivalenz und Ähnlichkeit von Matrizen
Sechstes Kapitel: Euklidische und unitäre Vektorräume
Siebentes Kapitel: Anwendungen in der Geometrie
Achtes Kapitel: Quotientenräume, direkte Summe und direktes Produkt
Neuntes Kapitel: Allgemeines Normalformenproblem
Zehntes Kapitel: Duale Raumpaare und Dualraum
Elftes Kapitel: Multilineare Algebra
Lösungen der Aufgaben
Namen- und Sachverzeichnis
Recommend Papers

Lineare Algebra [2. Aufl. Reprint 2019]
 9783111337579, 9783110989144

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Göschens Lehrbiicherei I. Gruppe

Reine und angewandte Mathematik Band 27

Lineare Algebra Von

Prof. Dr. Hans-Joachim Kowalsky

Walter de Gruyter & Co. v o r m a l s G. J . G ö s e h e n * s e h e V e r l a g s h a n d l u n g J. C u t t e n t a g , Verlagsbuchhandlung—Georg R e i m e r — K a r l J . T r ü b n e r — Veit und Comp.

Berlin

1965

Lineare Algebra

Von

Dr. Hans-Joachim Kowalsky o. Professor an der Technischen Hochschule Braunschweig

2. Auflage

Walter de Gruyter & Co. v o r m a l s G. J . G ö s c h e n ' s c h e V e r l a g s h a n d l u n g J. G u t t e n t a g , Verlagsbuchhandlung—Georg R e i m e r — K a r l J . T r ü b n e r — Veit & Comp.

Berlin

1965

© Copyright 1965 by Walter de Gruyter & Co., vormals G. J . Göschen'sche Verlagshandlung — J . Guttentag, Verlagsbuchhandlung — Georg Reimer — Karl J . Trübner — Veit & Comp., Berlin 30. — Alle Rechte, einschl. der Rechte der Herstellung von Photokopien und Mikrofilmen, vom Verlag vorbehalten. — Archiv-Nr. 1205651. — Satz und Druck: Walter de Gruyter & Co., Berlin 30. — Printed in Germany.

Vorwort Die Lineare Algebra muß heute zu den wichtigsten Grundstrukturen gerechnet werden, auf denen weite Teile der Mathematik basieren. Die Vertrautheit mit den Begriffsbildungen und Ergebnissen der Linearen Algebra gehört daher mit an den Anfang des Mathematikstudiums. Demgemäß wendet sich auch das vorhegende Lehrbuch an den Anfänger, bei dem indes bereits eine gewisse Übung im mathematischen Denken und Schließen sowie einige grundsätzliche Kenntnisse vorausgesetzt werden. I n Vorlesungen wird die Lineare Algebra häufig im Rahmen der Analytischen Geometrie behandelt. Dieses Buch ist jedoch kein Lehrbuch der Analytischen Geometrie: die Anwendung der Linearen Algebra auf die Geometrie steht nicht im Vordergrund und erfolgt auch nur in dem erforderlichen Umfang. Der auf den Anfänger bezogene Lehrbuchcharakter und der beschränkte Umfang erforderten auch eine Beschränkung in der Stoffaus wähl. So wird die Lineare Algebra hier rein als die Theorie der Vektorräume über kommutativen Körpern entwickelt, während auf den allgemeineren Begriff des Moduls nicht eingegangen wird. Andererseits ist jedoch der Begriff des Vektorraums von vornherein möglichst allgemein und ohne Dimensionseinschränkung gefaßt. Allerdings wird hierbei auf Fragen, die speziellere Kenntnisse erfordern, nur in Hinweisen oder besonderen Ergänzungen eingegangen. Dem Verlag möchte ich an dieser Stelle f ü r sein vielfältiges Entgegenkommen und dafür danken, daß er das Erscheinen dieses Buches ermöglicht hat. Mein besonderer Dank gilt Fräulein A. M. Fraedrich, die die mühevollen Korrekturarbeiten auf sich genommen und mich mit wertvollen Ratschlägen unterstützt hat. H.-J. KOWÄISKY

Inhalts Verzeichnis Einleitung

8 Erstes Kapitel Grundbegriffe

§ § § §

1 2 3 4

Mengentheoretisohe Grundbegriffe Gruppen Körper und Ringe Vektorräume

11 15 19 23

Zweites Kapitel Vnterräume, Basis, Koordinaten § 5 Unterräume § 6 Basis und Dimension § 7 Koordinaten

29 33 40 Drittes Kapitel Abbildungen

§ 8 § 9 § 10 §11

Lineare Abbildungen Abbildungsräume, Matrizen Produkte von Abbildungen und Matrizen Lineare Selbstabbildungen

49 55 61 66

Viertes Kapitel Lineare Gleichungssysteme, Determinanten § § § §

12 13 14 15

Lineare Gleichungssysteme Determinanten Berechnung von Determinanten, Entwicklungssatz Anwendungen

71 81 89 95

Fünftes Kapitel Äquivalenz und Ähnlichkeit von Matrizen § 16 Äquivalenz von Matrizen § 17 Ähnlichkeit, Eigenvektoren, Eigenwerte

100 105

Sechstes Kapitel Euklidische und unitäre Vektorräume § 18 Das skalare Produkt § 19 Betrag und Orthogonalität

115 122

Inhaltsverzeichnis •§20 121 § 22 § 23 §24

Orthogonalisierung Adjungierte Abbildungen Selbstadjungierte Abbildungen Orthogonale und unitäre Abbildungen Drehungen

128 136 143 149 155

Siebentes Kapitel Anwendungen in der Geometrie

§25 § 26 § 27 §28 § 29 § 30

Affine Räume Affine Abbildungen Projektive Räume Projektivitäten Projektive Hyperflächen 2. Ordnung Affine Hyperflächen 2. Ordnung

165 171 177 186 191 200

Achtes Kapitel Qnotientenräume, direkte Summe, direktes Produkt

§ 31 Quotientenräume § 32 Direkte Summe und direktes Produkt § 33 Zusammenhang mit linearen Abbildungen

212 216 222

Neuntes Kapitel Allgemeines Normalformenproblem

§ 34 Polynome § 35 Allgemeine Normalform § 36 Praktische Berechnung, Jordansche Normalform

228 234 242

Zehntes Kapitel Duale Raumpaare und Dualraum

§ 37 Duale Raumpaare § 38 Der Dualraum § 39 Duale Abbildungen

250 256 260 Elftes Kapitel Multilineare Algebra

§ 40 § 41 §42 § 43 § 44 § 45 § 46 § 47

Multilineare Abbildungen und Tensorprodukte Tensorielle Produkte linearer Abbildungen Tensormultiplikation und Verjüngung Tensorielle Abbildungen Alternierende Abbildungen Das äußere Produkt Tensoralgebra und äußere Algebra Innere Produkte, Zerlegbarkeit

265 272 277 284 288 296 303 309

Lösungen der Aufgaben

315

Namen- und Sachverzeichnis

337

Einleitung In der Mathematik hat man es vielfach mit Rechenoperationen zu tun, die sich zwar auf völlig verschiedene Rechengrößen beziehen und somit auch auf ganz unterschiedliche Weise definiert sein können, die aber trotz dieser Verschiedenheit gemeinsamen Rechenregeln gehorchen. In der Algebra abstrahiert man nun von der speziellen Natur der Rechengrößen und Rechenoperationen und untersucht ganz allgemein die Gesetzmäßigkeiten, denen sie unterliegen. Ausgehend von einigen Rechenregeln, die man als Axiome an den Anfang stellt, entwickelt man die Theorie der durch diese Axiome charakterisierten abstrakten Rechenstrukturen. Die Lineare Algebra bezieht sich speziell auf zwei Rechenoperationen, die sogenannten linearen Operationen, und auf die entsprechenden Rechenstrukturen, die man als Vektorräume bezeichnet. Die grundlegende Bedeutung der Linearen Algebra besteht darin, daß zahlreiche konkrete Strukturen als Vektorräume aufgefaßt werden können, so daß die allgemein gewonnenen Ergebnisse der abstrakten Theorie auf sie anwendbar sind. So besteht z. B. die Analytische Geometrie in erster Linie in der Anwendung der Linearen Algebra auf die Geometrie, die die algebraische Fassung und rechnerische Behandlung geometrischer Gebilde ermöglicht. Umgekehrt gestattet es aber gerade diese Anwendung, Begriffe und Resultate der abstrakten Theorie geometrisch zu deuten und diese geometrischen Interpretationen auf völlig andersartige Modelle von Vektorräumen, wie etwa Funktionenräume, zu übertragen. Das Hauptinteresse der Linearen Algebra gilt indes nicht dem einzelnen Vektorraum, sondern den Beziehungen, die zwischen Vektorräumen bestehen. Derartige Beziehungen werden durch spezielle Abbildungen beschrieben, die in bestimmter Hinsicht mit den linearen Operationen verträglich sind und die man lineare Abbildungen nennt. Ihr Studium erfolgt in zweierlei Weise: Einerseits werden einzelne Abbildungen hinsichtlich ihrer Wirkung und hinsichtlich der Möglichkeiten ihrer Beschreibung betrachtet. In diese Untersuchungen geht noch wesentlich die interne Struktur der Vektorräume ein. Zweitens aber interessiert man sich für die Struktur der Gesamtheit aller linearen Abbildungen, die man auch als Kategorie der linearen Abbildungen bezeichnet. Hierbei treten die Vektorräume nur noch als bloße Objekte ins

Einleitung

Spiel, zwischen denen Abbildungen definiert sind, deren interne Struktur aber nicht mehr in Erscheinung tritt. Dennoch können interne Eigenschaften von Vektorräumen auch extern in der Kategorie der linearen Abbildungen beschrieben werden; und gerade diese Möglichkeit spielt in den letzten Kapiteln eine wesentliche Rolle. Vielfach repräsentieren die dort konstruierten Vektorräume hinsichtlich ihrer internen Struktur keineswegs neue Vektorraumtypen. Neu aber ist ihre externe Charakterisierung, die die Existenz wichtiger Abbildungen sichert. An den Anfänger wendet sich dieses Buch hauptsächlich im Sinn einer Ergänzung und Vertiefung. Seine Lektüre erfordert zwar keine speziellen Vorkenntnisse, setzt aber doch bei dem Leser eine gewisse Vertrautheit mit mathematischen Begriffsbildungen und Beweismethoden voraus. Die Stoffanordnung folgt nur teilweise systematischen Gesichtspunkten, die vielfach zugunsten didaktischer Erwägungen durchbrochen sind. Zahlreiche Fragen, die in den Text nicht aufgenommen werden konnten oder die bei dem Leser weitergehende Kenntnisse voraussetzen, werden in besonderen Ergänzungen und meist in Form von Aufgaben behandelt. Auf ein Literaturverzeichnis wurde verzichtet. Jedoch seien in diesem Zusammenhang besonders die entsprechenden Werke von N . B O H R B A K I und W. G B A E U B genannt, aus denen zahlreiche Anregungen übernommen wurden. Bei der Numerierung wurde folgendes Prinzip angewandt: Definitionen, Sätze, Beispiele und Aufgaben sind an erster Stelle durch die Nummer des jeweiligen Paragraphen gekennzeichnet. An zweiter Stelle steht bei Definitionen ein kleiner lateinischer Buchstabe, bei Sätzen eine arabische Zahl, bei Beispielen eine römische Zahl und bei Ergänzungen bzw. Aufgaben ein großer lateinischer Buchstabe. Das Ende eines Beweises ist durch das Zeichen • kenntlich gemacht. Neu definierte Begriffe sind im Text durch Fettdruck hervorgehoben; auf sie wird im Sachverzeichnis verwiesen. Am Ende des Buches finden sich die Lösungen der Aufgaben, die aus Platzgründen allerdings sehr knapp gehalten sind. Bei numerischen Aufgaben, deren Schema vorher behandelt wurde, sind im allgemeinen nur die Ergebnisse angegeben. Bei theoretischen Aufgaben handelt es sich meist um Beweisskizzen oder um einzelne Hinweise, aus denen der Beweisgang entnommen werden kann.

Erstes Kapitel

Grundbegriffe Die lineare Algebra kann kurz als die Theorie zweier spezieller Rechenoperationen, der sogenannten linearen Operationen, gekennzeichnet werden. Die diesen Operationen entsprechenden algebraischen Strukturen werden lineare Räume oder Vektorräume genannt. Man kann daher die lineare Algebra auch als Theorie der Vektorräume bezeichnen. Der somit für das ganze Buch grundlegende Begriff des Vektorraums wird einschließlich einiger einfacher Eigenschaften im letzten Paragraphen dieses Kapitels behandelt. Vorbereitend wird in § 2 auf eine allgemeinere algebraische Struktur, die Gruppen, eingegangen. Schließlich setzt die allgemeine Definition des Vektorraums noch den Begriff des Körpers voraus, zu dem man durch die abstrakte Behandlung der rationalen Rechenoperationen geführt wird. Mit den Körpern und den mit ihnen eng zusammenhängenden Ringen befaßt sich der dritte Paragraph. Neben diese algebraischen Grundlagen treten als wesentliche Voraussetzung noch einige einfache Begriffe der Mengenlehre, die im ersten Paragraphen aus Gründen der Bezeichnungsnormierung zusammengestellt werden. Der Mengenbegriff wird dabei als intuitiv gegeben vorausgesetzt; auf die axiomatische Begründung wird nicht eingegangen. § 1 Mengentheoretische Grundbegriffe Die Objekte, aus denen eine Menge besteht, werden ihre Elemente genannt. Für „x ist ein Element der Menge M" schreibt man „x e M". Die Negation dieser Aussage wird durch ,,x { M" wiedergegeben. Statt „a^ e M und . . . und xn e M" wird kürzer „x1, . . ., xn e M" geschrieben. Eine spezielle Menge ist die leere Menge, die dadurch charakterisiert ist, daß sie überhaupt keine Elemente besitzt. Sie wird mit dem Symbol 0 bezeichnet. Weitere häufig auftretende Mengen sind: Z Menge aller ganzen Zahlen. R Menge aller reellen Zahlen. C Menge aller komplexen Zahlen.

12

Grundbegriffe

Eine Menge M heißt Teilmenge einer Menge N (in Zeichen: M • • •) H

hc„/J(En, • • -,£»)•

Zum Nachweis von A ( , . . ., j„) = 0 genügt es daher, A ( j k , . . ., %t,...) = 0 für k = 2 , . . ., n zu beweisen. 6»

84

Lineare Gleichungssysteme, Determinanten

Es sei nun ji0 diejenige Permutation, die die Indizes 1 und k vertauscht, alle übrigen aber einzeln fest läßt. Durchläuft dann n die Menge aller geraden Permutationen (vgl. 2B), so durchlaufen die Produkte 71 ° 7i0 alle ungeraden Permutationen, und es gilt sgn (71 o 710) =— sgn 71. Andererseits ändern sich aber die bei der Berechnung von A (Et, • • • . 1*. • • •) auftretenden Produkte xk nX • «2,JI2 ' ' ' xk,nh'" xn,nn nicht, wenn man in ihnen n durch 7 i ° n 0 ersetzt. Zusammen folgt hieraus, daß sich in der Definitionsgleichung von A ( j t , . . ., . . .) je zwei Summanden gegenseitig aufheben, daß also Ai*> • • . , i i , • • •) = 0 gilt. + Durch den zweiten Teil dieses Satzes ist gesichert, daß es zu einem endlichdimensionalen Vektorraum überhaupt Determinantenformen gibt. 13. 5 Es seien Ax und A2 zwei Determinantenformen sei eine Basis von X. Dann ist der Quotient

von X, und {(i 1 ,. . . , a«}

¿Max an) c —— A(ßl> • • •» In) unabhängig von der Wahl der Basis, und für beliebige Vektoren

, . . ., j„ gilt

A ( i l . • • •> In) = C Z l 2 ( j . . ., J n ). Beweis: Wegen 13. 3 gilt A2(aL a„) + 0 . Die Definition von c ist daher überhaupt sinnvoll. Wegen 13. 4 erhält man A ( £ i ' • • •> in) = [ 2

(sgn ji) ® l i B l •••*„,„„] A t e l .

= C[ 2

Wählt man hierbei für

(Sgn 71) xli7!l • • • xnnn\

a«)

Az(alt...,

an)

. . ., £„ speziell eine zweite Basis von X, so folgt A t e l . • • •> S»)

=

A(Ei» • •von • » &der ) Wahl der Basis. d. h. dieser Quotient ist unabhängig



13. 6 Es sei £») = ¿KWi

Av von X

definiert.

Ist dann A eine

nx„ = bn

mit der quadratischen Koeffizientenmatrix A = (a^„). Ferner gelte D = Det A+0. Dann besitzt dieses Gleichungssystem genau eine Lösung z1,..., xn, und für diese gilt *l,n

1 1 « i = TT 2 br (Adj a •) = — D v=l D

x

n,l (i = 1 , . . . , n ) . (Die rechts stehende Determinante ist so zu verstehen, daß in der Matrix A die i-te Spalte durch die Spalte der by ersetzt wurde.) Beweis: Wegen Det =f= 0 und wegen 15.1 gilt Rg A — n. Nach 12. 4 besitzt das Gleichungssystem eine eindeutig bestimmte Lösung. Daher muß nur noch gezeigt werden, daß die angegebenen Werte für die x{ tatsächlich eine Lösung darstellen. Setzt man nun aber diese Werte in die k-te Gleichung ein, so erhält man wegen 14. 3 B n / 1 " a x 2 k,i i = 2ak,i TT J 2 - 4

0 0 0 1

& 0 —1 0,

ist 2 —t 0 0 2 - t 1 — 2 2 — 4

0 0

0 0 = (2 - 0 vorausgesetzt werden. Für einen beliebigen Skalar c gilt dann 0 ^ (e -

et)) • (s -

et)) = s • j -

c(t) • 1) -

c(£ • t)) + cc(t) • t))

= i • l ~ c ( F ^ ) ~ c(E • t)) + ec(tj • 1?).

§ 19 Betrag und Orthogonalität

123

Setzt man hierin c

£ • t)

also

t)-t)

c

Jj-t}'

so erhält man nach Multiplikation mit t} • t) wegen t) • t) > 0 0 ^

(E " E) (T) •

tj) -

(S •

t» ( £ • t)) = (£ • E ) (T) • t)) -

| % • T) |

und hieraus weiter die behauptete Ungleichung. Das Gleichheitszeichen gilt jetzt genau dann, wenn £ — et) = o erfüllt ist. Zusammen mit dem Fall t) = o ergibt dies die zweite Behauptung.



Für jeden Vektor £ e X gilt £ • £ ^ 0. Daher ist IEI = + / E ' E eine nicht-negative reelle Zahl, die man die Länge oder den Betrag des Vektors E nennt. Man beachte jedoch, daß die Länge eines Vektors noch von dem skalaren Produkt abhängt. I m allgemeinen kann man in einem Vektorraum verschiedene skalare Produkte definieren, hinsichtlich derer dann ein Vektor auch verschiedene Längen besitzen kann. 19. 2 Die Länge besitzt folgende Eigenschaften: (1)

IE I=

0.

(2) | £ | = 0 ist gleichwertig mit £ = o. (3)

|CE| =

|C|

|E|.

(4) | E + 9 I ^ I E I + I T) I • (Dreiecksungleichung) Beweis: Unmittelbar aus der Definition folgt (1). Weiter gilt (2), weil | £ | = 0 gleichwertig mit £ • £ = 0 , dies aber wieder gleichwertig mit £ = 0 ist. Eigenschaft (3) ergibt sich wegen I CE I =

+ / C ( E ) • (CE) =

+]jcc

+(/E • E — I C I I E I -

Schließlich erhält man zunächst lE + t)l 2 = (S + t ) M E + t ) ) = S - E + E- l ) + t ) - E + t)-t) =

E ' E +

E ' TY +

I7*) +

9 " 9

= | Sl« + 2 Re ( S - > j ) + | U | » .

Euklidische und unitäre Vektorräume

124

Nun gilt aber Re (j • t)) | J • t) |, und aus 19.1 folgt durch Wurzelziehen I J ' t) I = I E I 11) |. Somit ergibt sich weiter |S + t H 2 ^ | s | 2 + 2 | E | | t ) | + | t ) | 2 = ( | E | + | t ) | ) 2 und damit (4).



Ersetzt man in der Dreiecksungleichung (4) einerseits e durch E — t) und andererseits t) durch t) — £ und beachtet man | j — t) | = | t) — J |, so erhält man zusammen die Ungleichung llsl-mil^li-mEin Vektor j heißt normiert oder ein Einheitsvektor, wenn | j | = 1 gilt. 1 Ist j vom Nullvektor verschieden, so ist r ein normierter Vektor. Isl Aus dem Beweis der Dreiecksungleichung folgt unmittelbar, daß in ihr das Gleichheitszeichen genau dann gilt, wenn Re (e • ti) = | £ | | t) | erfüllt ist. Wegen Re (£ • t)) iS | £ • t) | | j | \ t) | folgt aus dieser Gleichung auch | £ - t ) | = | £ | | t ) | und daher nach 19.1 die lineare Abhängigkeit der Vektoren 5 und t). Setzt man t) 4= 0 voraus, so muß j = et) und weiter (Re c) 11) | 2 = Re (et) • t)) = Re

(3:

• t)) = | j | | t) | = | c | 11) | 2 ,

also Re c = | c | gelten. Dies ist aber nur für c 2g 0 möglich. Gilt umgekehrt £ = et) mit c Sä 0 oder t) = 0, so erhält man durch Einsetzen sofort Re ( j • t)) == | J | 11) |. Damit hat sich ergeben: 19. 3 | e + t) | = | E I + I 9 I ist gleichwertig damit, daß t) = 0 oder % — et) mit c^O gilt. Für zwei vom Nullvektor verschiedene Vektoren £, Kosinus des Winkels zwischen diesen Vektoren durch (*)

definiert man den

COS (E, t)) = - — — — .

Wegen | E ' 9 I SS I E I I I (vgl- 19.1) gilt im Fall eines euklidischen (reellen) Vektorraums — 1 iS cos (£, t)) ^ + 1 • Durch (*) wird daher tatsächlich der Kosinus eines reellen Winkels definiert. Multiplikation von (*) mit dem Nenner liefert !•») •= I i i h l

cos

(l> *)) •

§ 19 Betrag und Orthogonalität

125

Ersetzt man in der Dreiecksungleichung t) durch — t), quadriert sie und setzt den vorangehenden Ausdruck für £ • t) ein, so erhält man im reellen Fall I i - t) I2 = I i I2 + 11) I2 - 2 | J | h I cos (E, D). Dies ist der bekannte Kosinussatz für Dreiecke: Zwei Seiten des Dreiecks werden durch die Vektoren £ und t) repräsentiert. Die Länge der dem Winkel zwischen 5 und t) gegenüberliegenden Seite ist dann gerade | £ — t) |. Im Fall eines rechtwinkligen Dreiecks gilt cos (£, t)) = 0, und der Kosinussatz geht in den Pythagoräischen Lehrsatz über. Der wichtige Spezialfall, daß £ und t) einen rechten Winkel einschließen, ist offenbar gleichwertig mit £ • t) = 0. Definition 19 a : Zwei Vektoren j, t) heißen orthogonal, wenn j • t) = 0 gilt. Eine nicht-leere Teilmenge M von X heißt ein Orthogonalsystem, wenn 0 4 M gilt und wenn je zwei verschiedene Vektoren aus M orthogonal sind. Ein Orthogonalsystem, das aus lauter normierten Vektoren besteht, wird ein Orthonormalsystem genannt. Unter einer Orthonormalbasis von X versteht man ein Orthonormalsystem, das gleichzeitig eine Basis von X ist. 19. 4 Jedes Orthogonalsystem ist linear unabhängig. Beweis: Es sei M ein Orthogonalsystem, und für die paarweise verschiedenen Vektoren . . . , a n € M gelte CjCtj + • • • + cna„ = 0. Für jeden festen Index k mit 1 ^ k ^ n folgt hieraus Ci(ax • a * H

b k{ak • a * H

b c„(o>. • a*) = 0 • a* = 0.

Wegen a? • a* = 0 für v #= k erhält man weiter Ct(a* • a*) = 0 und wegen a* 4= 0, also ei* • a* > 0 schließlich c t = 0. • Wenn . . . , e„} ein Orthonormalsystem ist, gilt e/( • e„ — 0 für ¡i 4= v und e,, • tp — 1. Um diesen Tatbestand bequemer ausdrücken zu können, führt man folgende Bezeichnungsweise ein: Definition 19 b:

Die so definierte Funktion der Indizes ¡x und v heißt das KRONECKEB-Symbol.

Euklidische und unitäre Vektorräume

126

19. 5 Es sei { e x , . . e „ } eine Orthonormalbasis von X. Sind dann xx,. . ., xn bzw. yx yn die Koordinaten der Vektoren % und t) bezüglich, dieser Basis, so gilt S • t) =

H

b xnyn

und für die Koordinaten selbst xv = j • er (v = Beweis: Wegen ey •

1 , n ) .

= 6„ ß erhält man 'v

und

Dieser Satz gilt sinngemäß auch bei unendlicher Dimension und kann dann ebenso bewiesen werden. Im nächsten Paragraphen wird gezeigt werden, daß man in einem endlichdimensionalen euklidischen bzw. unitären Vektorraum stets eine Orthonormalbasis finden kann. Hinsichtlich einer solchen Basis nimmt dann das in dem Raum gegebene skalare Produkt die in 19. 5 angegebene einfache Form an. Umgekehrt kann 19. 5 aber auch dazu benutzt werden, um in einem beliebigen reellen oder komplexen Vektorraum (endlicher Dimension) ein skalares Produkt zu definieren: Man wähle eine beliebige Basis des Raumes und definiere das skalare Produkt durch die Gleichung aus 19. 5. Hinsichtlich dieses skalaren Produkts ist dann die gewählte Basis eine Orthonormalbasis. Beispiele: 19.1 Für je zwei Vektoren j = (x1, xz) und t) = {ylt y2) des reellen arithmetischen Vektorraums R2 sei das skalare Produkt durch J • t) = 4x1y1 — 2x^2 — 2 x2yx + 3 x2y2 definiert (vgl. 18. I). Dann bilden die Vektoren

eine Orthonormalbasis. Es gilt nämlich

§ 19 Betrag und Orthogonalität e

127

* . e * _ 4 . J l . i_ _ l 1 1 2 2 '

1 1 * „ 1 e** • e? = , 4 •1 — •—p — 2 • — - - p = 0, 1

2

2

*

*

^

e2

2J/2

1

_

2

1

]/2

1

' 2 ] / 2 ' 2|/2 ~~

1

1

' 2[/2 ' / 2 ~

1

1

' j / 2 ' 2)/2

+

1

' j/2 ' ]/2

_

Zwischen den Koordinaten^, x2 hinsichtlich der kanonischen Basis = (1, 0), e2 = (0, 1) und den Koordinaten a;*, a;* hinsichtlich {ef, e|} besteht wegen -

1 2

1 e ? _

2|/2

e i

+

J/2

62

die Beziehung _ 1 * --2

X

i

J _

*

+2J/2*2'

1 *

^ - j / ^

2

'

Einsetzen dieser Werte liefert in der Tat *•>= -

2

+ P * * ) (t"? (in*)

+271^)+

3

(71**)

2

[ t * +271**) (j/ly*

( 7 1 * * ) = * * + * *

19. II In dem Vektorraum aller in dem Intervall [— 71, + ti\ stetigen reellen Funktionen wird durch +

(/, 0 daher ebenfalls D n + 1 1 D n > 0. liWil " Somit ist auch (2) erfüllt.

=

Ist umgekehrt t' n + 1 ein Vektor, für den {ex e„, t ' n + l } ebenfalls ein Orthonormalsystem mit den Eigenschaften (1) und (2) ist, so muß wegen (1) n «+i = 2 a,tv + can+1 V=1

e

mit c 4= 0 gelten. Man kann daher e' n + 1 auch in der Form e»+i =

c

[a»+i -

n £ M,] p=i

schreiben. Für ¡x = 1 , . . ., n erhält man 0

=

-1)'

25 - (a2 • ex) ex = (2, 2, - 4 , - 5 ) - — o = (-2, 0,-2,-4),

1 o

(4, 2, - 2 ,

-1)

3 = a 3 — (°3 • e i) ex — (a3 • e2) e2 = (0, 8, - 2 , - 5 )

25

5

1

- ( 4 , 2 , —2, —1) 5

24 1 ( - 2 , 0 , - 2 , - 4 ) — j/24 ]/ 24 = ( - 2 , 6, 2, 0),

1 (—2, 6, 2, 0). e 3 ——¡= J/44 20. II In dem reellen Vektorraum aller in [0, 1] stetigen reellen Funktionen sei das skalare Produkt durch l

9;

Euklidische und unitäre Vektorräume

132

definiert. Das Orthogonalisierungsverfahren soll auf die Polynome 1 = t, 4) = J (t — j f o

dt

=

'

also

6l(' _L U. Mit u* = u — u' und o* = ö' — ü gilt daher u* = t)*, u* e U und t>* ± U. Es folgt u* • ll* = t>* • U* = 0 und daher u* = 0, also u = u ' . • Die orthogonale Projektion eines Vektors in einen Unterraum U braucht nicht zu existieren. Nur wenn U endliche Dimension besitzt, kann ihre Existenz allgemein nachgewiesen werden.

134

Euklidische und unitäre Vektorräume

20. 6 Es sei U ein endlich-dimensionaler Unterraum von X. Zu jedem Vektor 2 e X existiert dann die orthogonale Projektion in U. Ist {ex, . . ., e„} eine n Orthonormalbasis von U, so gilt = 21 ( j • t,) ep. »= i

Beweis:

Wegen 20. 2 besitzt U eine Orthonormalbasis {e x ,. . . , e„}. Für

den Vektor

=

n

2 ( j • e„) e„ gilt dann »= l

(E - £ « ; ) • e„ = E • e ß Es folgt ( j — Ep) J. i7. Daher ist

e U und für [i = 1, . . ., n

n 2 (E • e„) /J = 0 . V=1

die orthogonale Projektion von j in U. +

20. 7 Es sei U ein beliebiger Unterraum und j ein beliebiger Vektor von Für Vektoren atU sind dann folgende Aussagen gleichwertig:

X.

(1) a ist orthogonale Projektion von % in U. (2) Für jeden Vektor u e U gilt | E — — u |. Beweis: Zunächst sei a die orthogonale Projektion von j in U. Es gilt also { - m U . Setzt man t) = a — u , so gilt weiter b e J7 und £ — U = (£ — a ) + Ö . Man erhält I E - u| 2 = [(E - a ) + b ] • [(e - ct)+ö] = |e - a| 2 + |b| 2 + 2 Re [(E - a) • b]. Wegen b e U und j — a _L U verschwindet der letzte Summand. Daher gilt | E - u |

2

= |E-a|

2

+

|ö|

2

^lE-a|

2

,

woraus (2) folgt. Umgekehrt sei (2) erfüllt. Zu beweisen ist j — a _L U. Wäre dies nicht der Fall, so würde es einen Vektor b e U mit (e — a) • ö = c =)= 0 geben. Ohne Einschränkung der Allgemeinheit kann | b | = 1 angenommen werden. Setzt man dann u = a + cb, so gilt u e U und I E - u I2 = [(E - a) - cö] • [(E - a) = I E-

2

2

a I + I c | - 2 Re [E(e -

= |E — a | 2 + | c | 2 — 2 ) c |

im Widerspruch zu (2).

cb]

2

a) • b]

< | e — a|2



2 0 . 8 Für endlichdimensionale Unterräume U von X gilt ( U 1 ) 1 = U . Besitzt auch X endliche Dimension, so gilt weiter Dim UL = Dim X — Dim U. Beweis: Allgemein folgt aus der Definition U S (U1)1. E s gelte n u n E e {U1)1. Da U endliche Dimension besitzt, existiert nach 20. 6 die ortho-

135

§ 20 Orthogonalisierung gonale Projektion

v o n j i n U, u n d es gilt ( j —

erhält m a n (£ —

• £ = 0 und wegen

e iJ1. Wegen j e ( t / 1 ) 1

t U auch ( j — %v) • i

v

= 0. Es

folgt I S ~ In I2 = (S also 5 = j p u n d somit £ e U. n u n sogar X

In) • l ~ (S ~ lu) • lu = °> D a m i t ist

endliche Dimension,

(t/1)1 =

U bewiesen.

so existiert w e g e n 20. 2 eine

Besitzt Ortho-

normalbasis {e x , . . . , e r } v o n U, u n d diese k a n n z u einer Orthonormalbasis er+1

en} von X

verlängert werden. D a

E71 offenbar a u s

g e n a u denjenigen Vektoren besteht, deren orthogonale Projektion i n U der N u l l v e k t o r ist, ergibt sich w e g e n 20. 6 jetzt Ul die b e h a u p t e t e Dimensionsbeziehung.

= [ e r + 1 , . . . , e„] u n d d a m i t



Ergänzungen und Aufgaben 20 A Es sei F der reelle Vektorraum aller in [0,1] stetigen reellen Funktionen mit dem skalaren Produkt ( / , g) =

ff(t)g(t)dt. 0

Der Unterraum U aller Polynome besitzt abzahlbar-unendliche Dimension. Daher existiert nach 20. 2 eine Orthonormalbasis von U. Es sei nun / eine von der Nullfunktion verschiedene Funktion aus F. Dann gilt ( / , / ) = a > 0 und | / ( t ) | < b f ü r alle t e [0, 1]. Nach dem Approximationssatz von W E I E R S T R A S S kann / in [ 0 , 1 ] gleichmäßig durch a Polynome approximiert werden. Es gibt also ein Polynom g € U mit | /(() — £/(0 I < , und man erhält 1 (/.g) = J/W

[/(«)-(/(0

- g m d t

0

1 ff

1 2

(t)dt-J

1/(01 \m-g{t)\dt

^(/,/)_&JL =

0 0 Daher ist außer der Nullfunktion keine Funktion aus F zu U orthogonal; d. h. £M ist der Nullraum und (C7J-)X daher der ganze Raum F. Satz 20. 8 gilt somit nicht mehr f ü r unendlich-dimensionale Unterräume. Ebenso gilt auch 20. 2 nicht mehr, weil eine Orthonormalbasis von U nicht zu einer Orthonormalbasis von F erweitert werden kann. Aufgabe: Die Polynome selbst sind die einzigen Funktionen aus F , die eine orthogonale Projektion in U besitzen. 20 B In dem komplexen arithmetischen Vektorraum C 4 sei das skalare Produkt zweier Vektoren j = ( z x , . . ., x 4 ) und t) = (yu . . . , durch j • t) = x1y1 -1 1- xlyi definiert.

136

Euklidische und unitäre Vektorräume

Aufgabe: Man bestimme eine Basis des orthogonalen Komplements des von den Vektoren a t = (—1, i, 0,1) und a2 = (i, 0, 2, 0) aufgespannten Unterraums.

§ 21 Adjungierte Abbildungen Es seien X und Y zwei euklidische oder unitäre Räume, und

eine Drehung eines 2-dimensionalen, orientierten euklidischen Raumes X. Dann gibt es genau einen Winkel x mit —n < a und folgender Eigenschaft: Hinsichtlich jeder positiv orientierten Orthonormalbasis ist

die Matrix AT, die aus A auch durch Ersetzung von a durch — a hervorgeht. Beweis: Es sei {e!, e2} eine positiv orientierte Orthonormalbasis von X. Es gilt 9*1 = ( Ct»} eine andere, durch die P u n k t e p„, . . .,pn, e bestimmte Basis benutzt. Definition 2 7 c : Ein geordnetes (n-\-2)-Tupel (pa, . . ., pn, e) von Punkten eines n-dimensionalen projektiven Raumes T heißt ein Koordinatensystem von CP.

182

Anwendungen in der Geometrie

wenn je m+1 unter diesen Punkten unabhängig sind. Es werden dann p0,... ,pn die Grundpunkte und e der Einheitspunkt des Koordinatensystems genannt. Nach den vorangehenden Überlegungen kann jedem Punkt x e T hinsichtlich eines Koordinatensystems (p0,. . .,pn,e) ein bis auf einen von Null verschiedenen Faktor eindeutig bestimmtes Koordinaten-(w+1)-Tupel (x0l..., xn) zugeordnet werden, in dem nicht sämtliche Koordinaten verschwinden. Umgekehrt bestimmt offenbar jedes von (0, . . ., 0) verschiedene (re+1)-Tupel genau einen Punkt x. Man bezeichnet diese Koordinaten als homogene Koordinaten. Die Grundpunkte p„,..pn besitzen die Koordinaten (1, 0 , . . ., 0 ) , . . . , ( 0 , . . ., 0, 1); die Koordinaten des Einheitspunktes sind ( 1 , 1 , . . 1 ) . Es sei jetzt V ein w-dimensionaler projektiver Raum, aus dem durch Herausnahme einer uneigentlichen Hyperebene H der w-dimensionale affine Raum A entstehen möge. Weiter sei (p0,.. ., p„) ein affines Koordinatensystem von A. Diesem kann man dann auf folgende Weise ein projektives Koordinatensystem (Po> • • •> P*> e *) v o n ^ zuordnen: Nach 27.1 schneiden die projektiven Verbindungsgeraden von p0 und pv die uneigentliche Hyperebene in genau einem Punkt p* — (p0 v py) r\ H (v = 1, . . ., n). Weiter sei e* der durch p0e* = PaPi + " " " + PoPn bestimmte eigentliche Punkt, der also die affinen Koordinaten (1, . . ., 1) besitzt. Setzt man schließlich noch p* = p0, so zeigen einfache Überlegungen, daß (p*, . . ., p*, e*) ein projektives Koordinatensystem von f ist. Eine zu diesem Koordinatensystem von T gehörende Basis von X gewinnt man folgendermaßen: Durch die weiter oben beschriebene Art der Einbettung von A in T ist durch p0 eindeutig ein Vektor a 0 mit p0 — [a 0 ] bestimmt. Setzt man jetzt noch a„ = p0pv (v = 1, . . ., n), so ist {do, . . •, dn} eine Basis von X und {ax a„} eine Basis von XH. Außerdem gilt offenbar e* = [a0 + öi + """ + . Für einen beliebigen Punkt x e A mit den affinen Koordinaten (xx, ..., xn) ist dann £ = a 0 + p0x = 1 a 0 + x ^ + • • • + xna„ ein Vektor mit x = [j]. Dies bedeutet aber, daß (1, xlt . . ., xn) gerade die homogenen Koordinaten von x bezüglich des projektiven Koordinatensystems (p*,.. .,p*, e*) sind. Umgekehrt seien (x*, . . ., x*) die homogenen Koordinaten eines Punktes x e f . Da { • • •> un) gegeben sind, gestaltet sich die Berechnung des Doppelverhältnisses folgendermaßen: Zunächst hat man Skalare s und t mit j = s j -f- it) zu bestimmen. Mit a 0 = s£ und c^ = it) ist danach u in der Form u = «* a 0 + ui a i darzustellen. Dann gilt DV(x,y,z,u)

«?

= — , UQ

184

Anwendungen in der Geometrie

Die Kollinearität der Punkte ist gleichwertig damit, daß die Vektoren j,t),g,u einen 2-dimensionalen Vektorraum aufspannen, daß also die Matrix

den Rang 2 besitzt. Wegen x 4= y gibt es sogar Indizes i und k mit X(

Xk

H=0.

Vi Vk

Für s, t, u*, w* ergeben sich dann die linearen Gleichungssysteme xts +y ¡t = zt

x{su* + y{tu* = uf

XkS + Vkt = zk

xksu* + yktu* = uk

Es folgt s Z »1,2 = (P1VP2) (Po vx) gesetzt. Aufgabe: Es seien xq , x*, x* die homogenen Koordinaten des Punktes x bezüglich des gegebenen Koordinatensystems. Zeige: Für je zwei Indizes i, h mit i < k gilt

4

— =DV(pitpk, eik,xik). xf 27 B Das Doppelverhältnis von vier kollinearen Punkten px, p2, p3, pi hängt von der Reihenfolge dieser Punkte ab. Nachstehend bedeute n eine beliebige Permutation der Indizes. Aufgabe: 1). Für welche Permutationen gilt DV(plt p2, pa, pt) = DV(pnl, pn2, p„3, pni) ? 2). Es gelte DV(plt p2, p3,pt) = c. Man drücke f ü r alle Permutationen n das Doppelverhältnis DV{p,tl, pn2, Pna< Pxt) durch c aus. Wie viele verschiedene Doppelverhältnisse treten auf? 27 C Eine reelle projektive Gerade G kann umkehrbar eindeutig (und stetig) auf eine Kreislinie abgebildet werden: Hinsichtlich eines Koordinatensystems von G seien nämlich x i Durch a(x) = 2 arctg — x o wird dann x umkehrbar eindeutig ein Winkel a(x) mit — n < a(a;) gj + n zugeordnet. Jedem solchen Winkel oc(x) kann aber wiederum in natürlicher Weise ein Punkt x* einer Kreislinie zugeordnet werden. An diesem Modell erkennt man, daß die auf der reellen affinen Geraden sinnvolle Aussage „der Punkt p liegt zwischen den Punkten q und r" auf G keinen Sinn mehr besitzt: Unter drei verschiedenen Punkten der Kreislinie ist keiner durch seine Lage ausgezeichnet. An die Stelle von „zwischen" tritt in G der Begriff

(x„, Xj) die homogenen Koordinaten eines Punktes xeG.

186

Anwendungen in der Geometrie

„trennen": Man sagt, daß zwei Punktepaare (plt p2) und (p3, p4) von O sich trennen, wenn die beiden die Punkte p* und p\ verbindenden Bögen der Kreislinie je einen der beiden Punkte p%, p* enthalten. Aulgabe: 1). Zeige: Zwei Punktepaare (plt p2) und (p3, pt) von G trennen sich genau dann, wenn DV (plt p2, p3, Pi) < 0 gilt. 2). Der Punkt u e O sei als uneigentlicher Punkt ausgezeichnet. Zeige, daß der eigentliche Punkt z genau dann zwischen den eigentlichen Punkten x und y liegt, wenn DV(x,y,z,u) < 0 gilt. Zeige weiter, daß z genau dann Mittelpunkt der durch x und y bestimmten Strecke der affinen Geraden ist, wenn DV{x, y,z,w) = — 1 erfüllt ist. (Man sagt in diesem Fall, daß sich die Punktepaare (x, y) und (z, w) harmonisch trennen.)

§ 28 Projektivitäten Es sei T ein projektiver R a u m mit dem zugehörigen Vektorraum X. Eine lineare 1-1-Abbildung

s o folgt n v, f i — 0

^v,nXvXß~

n

r,pXvX/J "1" ^

n

ii, rXvX(t ~ ^ 2

a f,/i =

0

Vyfi

d. h. & wird auch durch die Gleichung

n

a — 0

V,ft

=

0

n

ß\

aVt XvX

n

br ^„x^ = 0 beschrieben. Die v,ft = o

Matrix B = (bv/i) ist aber symmetrisch. + Beispiele: 29.1 Im Fall der reellen projektiven Ebene (n = 2) sind die Hyperflächen im allgemeinen Kurven. Eine anschauliche Vorstellung von der durch die Gleichung + x\ — x\=0 bestimmten Kurve ¿F kann man folgendermaßen gewinnen: Zeichnet man die durch x 0 — 0 bestimmte Hyperebene als uneigentliche Hyperebene aus, so sind (xv x2) die affinen Koordinaten der durch x0 = 1 gekennzeichneten eigentlichen Punkte. Die affinen Koordinaten der eigentlichen Punkte von S erfüllen daher die Gleichung x\ — ic| = 1; der eigentliche Teil von & ist also eine Hyperbel. Zeichnet man andererseits die

§ 29 Projektive Hyperflächen 2. Ordnung

193

durch x2 = 0 bestimmte Hyperebene aus, so sind (x0, xt) die affinen Koordinaten der durch. x2 = 1 charakterisierten eigentlichen Punkte. Für sie gilt die Gleichung x% + x t — 1 > d. h. der eigentliche Teil von & ist jetzt ein Kreis. 29. II Die Gleichung — = 0 ist gleichwertig damit, daß eine der beiden linearen Gleichungen x0 -f- x1 — 0 , x0 — xt = 0 erfüllt ist. Die durch — x^=0 bestimmte Hyperfläche besteht daher aus zwei verschiedenen Hyperebenen, die man ein Hyperebenenpaar nennt. 29. III Für k ig n ist XQ + • • • + ^ = 0 gleichwertig mit x0 = • • • =xk=0. Die zugehörige Hyperfläche & ist ein (n — k — l)-dimensionaler Unterraum von T\ I m Fall k — n ist & die leere Menge. Auch der Fall k = — 1 kann zugelassen werden, wenn man ihn so interpretiert, daß auf der linken Seite überhaupt keine Koordinaten auftreten, daß also die Gleichung 0 = 0 lautet. Sie wird dann von allen (n + 1)-Tupeln erfüllt; die zugehörige Hyperfläche ist der ganze Raum iP. Jede eine Hyperfläche & bestimmende Gleichung der Form (*) aus 29.1 wird eine homogene quadratische Gleichung, die Matrix A = (a„ ^) ihrer Koeffizienten eine zu & gehörende oder eine & bestimmende Matrix genannt. Jede Hyperfläche kann nach 2 9 . 1 durch eine symmetrische Matrix bestimmt werden. Weiterhin soll daher immer vorausgesetzt werden, daß alle zur Bestimmung von Hyperflächen benutzten Matrizen symmetrisch sind. Definition 29 b: Zwei Hyperflächen & und von T heißen projektiv äquivalent (in Zeichen: & ~ S'), wenn es eine Projektivität q> von V mit S' = & . Hinsichtlich des gegebenen nach 28. 5 eine reguläre Matrix 8. Für (x'0 x'n) und seinen Bildpunkt x =

=

(g = i + 1, . . .,r),

x'p=x„

(v = r + 1,...,

n)

wieder eine affine Projektivität, die ¿F' auf eine affin-äquivalente Hyperfläche S " abbildet, deren Gleichung die folgende Form besitzt: x\

H

f- A — x f+l

xr

=

cx 0

+

2

n

bvx0x,

p= r+ l

mit 0 ^ t ^ r ^ n, r — t ^ t. Es werden nun folgende Fälle unterschieden: Fall a: c = 0 und £>„ = 0 für v = r + 1,. . ., n. Dann ist bereits S " eine Hyperfläche ¿F des Typs (1) der Tabelle. Die Werte von u und d ergeben sich mit Hilfe von 29. 6. Dabei ist jedoch zu beachten, daß die Gleichung mit x1 statt mit x0 beginnt. In den Formeln aus 29. 6 muß daher t durch t — 1 und r durch r — 1 ersetzt werden. Man erhält u{&") = n - (t - 1) - 1 = n - t, d{&") =

n-(r-l)-l=ra-r.

Die Gleichung des uneigentlichen Teils ¿F"* ist dieselbe wie die von S " . Bei der Bestimmung von u* und d* muß aber jetzt statt n die Dimension von H, also n — 1, eingesetzt werden. Es gilt somit weiter u*(&")

= n — t — 1, d*(S")

—r—

1.

Fall b: c > 0 und bp = 0 für v = r + 1 , . .., n. Dann wird durch x'o = ycx0,

x'v =

X,

(r

=

1,...,»)

§ 30 Affine Hyperflächen 2. Ordnung

205

eine affine Projektivität definiert, die S" auf eine affin-äquivalente Hyperfläche & mit der Gleichung zl^

\-xf — x*+1

'4=x

(0 ^t^r^n,

l

r—

t^t)

abbildet. Im Fall r — t < t ist dies der Typ (2) der Tabelle, im Fall r — t = t der Typ (3). In beiden Fällen stimmt die Gleichung des uneigentlichen Teils mit der entsprechenden Gleichung in Fall a überein. Daher gilt auch hier u*(S) = n — t — 1 und d*(S) = n — r — 1, wobei man allerdings im Fall r — t —t ebenso auch u*(S) = n — (r — t) — 1 schreiben kann. Zur Berechnung von u und d muß die Gleichung zunächst auf die Form -{-'''

Xf

Xf_f_J



xr

x0

=

0

gebracht werden. Im Fall r — t < t ist hier immer noch die Bedingung erfüllt, daß die Anzahl der positiven Glieder nicht kleiner ist als die der negativen Glieder. Man kann daher die Formeln aus 29. 6 anwenden, wobei nur t durch t — 1 zu ersetzen ist, während r wegen des zusätzlichen Gliedes —x* nicht geändert zu werden braucht. Man erhält u(S) — n — t und d(S) = n — r — 1. Im Fall r — t — t muß man jedoch zunächst die Gleichung mit (—1) multiplizieren. In den Formeln aus 29. 6 muß dann t durch r — t ersetzt werden, während r wieder seine Bedeutung behält. Man erhält jetzt u(S) = n — (r — t) — 1 und d{&) —n — r — 1. Fall c: c < 0 und bv — 0 für v = r + 1, ...,

n.

Dann bildet die durch x'o

=/

I

c

I xo>

(" = !»•• •» n)

definierte affine Projektivität S " auf eine affin-äquivalente Hyperfläche mit der Gleichung x\ H

h x? — xf+1

x2r = — x2ü (0tnE« a u s ^ a b. Der Bildvektor eines Vektors l)t 7 bei der Abbildung (p aus 33. 2 ist das w-Tupel (^t), . . ., q>„t)). In dem folgenden Satz bedeute wieder allgemein L(X, Y) den Vektorraum aller linearen Abbildungen von X in F. Es gelten dann folgende zwei Isomorphien: 33. 3 L(@ X „ Y) = X L(X„ Y)

und L(Y,

x l , ) s x L(Y,

X,).

Beweis: Ist

= 0 f ü r a l l e £ e M, also t} + t)' e M1-. Ebenso ergibt sich aus t) e M1 auch et)) = c < j , t)> = 0 für alle j e M und somit et) e ML. Daher ist M1 ein Unterraum von F. Schließlich gilt / " \ " \ ty y — JJ t)>. Ein zu M orthogonaler Vektor ist daher auch zu jeder Linearkombination von M orthogonal. Hieraus folgt die letzte Behauptung. + 37. 5 Es sei (X, Y) ein duales Raumpaar, und X besitze endliche Für einen beliebigen Unterraum U von X gilt dann (U1)1 = U

und

Dim U1 = Dim X - Dim

Dimension.

ü.

Beweis: Ist U der Nullraum, so gilt U1 = Y und YL — [o] = U, woraus sich die Behauptungen unmittelbar ergeben. Weiterhin sei daher U vom Nullraum verschieden. Ist dann { a 1 ; . . . , a P } eine Basis von U, so kann diese zu einer Basis {c^, . . ., a„} von X verlängert werden. Schließlich bedeute {bj, . . ., b„} die zu dieser Basis duale Basis von Y, und es werde V ~ [fV+i *>„] gesetzt. Wegen = 0 für q = 1, . . ., r und v — r + 1 , . . ., n gilt V S UL. Umgekehrt werde t) e UL vorausgesetzt. Ist t) = + • • • + 2/«i>n die Basisdarstellung von t), so ergibt sich

< n

v

n

ag, y=1 2 yJov) ' = t>2= l y, = yQ

für q = 1, . . ., r und daher t) e V. Somit gilt UL = V und entsprechend auch V1 = U. Hieraus folgen unmittelbar die beiden Behauptungen. • Ergänzungen und Aufgaben 37 A Die in 37. 5 bewiesene Gleichung (t/J-)-L = U gilt im allgemeinen nicht mehr bei unendlicher Dimension: Wie in dem Beispiel 37. II sei X = © {K: i e 1} und Y — X {K~ t £ / } mit einer unendlichen Indexmenge I. Das die Dualität vermittelnde skalare Produkt sei wie dort definiert. Es ist dann U = {K: ie 1} ein echter Unterraum von Y. Aufgabe: Zeige, daß (i7i)i = Y gilt.

256

Duale Raumpaare und Dualraum

37 B Es sei ( X , Y) ein duales Raumpaar. Aufgabe: Zeige, daß für ein beliebiges System {Ut: t e 1} von Unterräumen von X (2! {U,: j e / } ) 1 = 0 {Uj-: i£ 1} und (fl {17,: t e I } ) L > 2 ; { ü i : i e 1} erfüllt ist. Zeige weiter, daß bei endlicher Dimension von X in der zweiten Beziehung ebenfalls das Gleichheitszeichen gilt. Wie in 37. I I sei X = © {K: ie 1} und Y = X {-ST: t e / } , wobei jetzt I speziell die Menge der natürlichen Zahlen sei. Für jede natürliche Zahl n sei ferner U„ der Unterraum aller Vektoren j e X mit n, j = 0 f ü r t ^n (ar, ist die natürliche Projektion). Aufgabe: Man bestimme die Unterräume (fl {Ut: i e I})L und 2 daß sie in diesem Fall nicht gleich sind.

{üj~: i e 1} und zeige,

37C Satz 37. 3 gestattet eine Verallgemeinerung: Es sei (X, Y) ein duales Raumpaar, bei dem X und Y nicht notwendig endlich-dimensional sind. Ferner seien b x , . . . , b n linear unabhängige Vektoren aus Y. Dann gibt es zunächst einen Vektor a x € X mit „) = xic1)tr + • • • + x^c^^ für v = 1 , . . .,n gibt. x a Für den Vektor t) = j — x1a1 k k gilt dann = — x1 (di, b,,) —

»* = 0

(j> = 1 , . .

,,n).

Bedeutet daher V den Unterraum aller Vektoren ü e l mit (t>, h v ) = 0 f ü r v = 1 , . . ., n, und setzt man U = [ a x , . . ., a j ] , so gilt X = V + V. Wegen k < n gibt es nun nicht sämtlich verschwindende Skalare . . ., dn mit für l + • • • + dnc„tn = 0 x = 1 , . . ., k. Für den Vektor b = dlb1 + • • • + dnbn folgt hieraus 6> =

bx> H

1- dn{ax,

bn> = 0

für

x = 1 , . . . , k,

also (u, b) = 0 f ü r alle ue U. Andererseits gilt aber auch (ö, b) = 0 für alle b e V und daher überhaupt ( j , £>) = 0 für alle j e X . Es folgt b = o im Widerspruch zur linearen Unabhängigkeit der Vektoren i l t . . . , b n . Insgesamt hat sich damit ergeben: Zu den Vektoren . . ., b n C Y existieren Vektoren alt. . ., ane X, f ü r die die quadratische Matrix der skalaren Produkte (aß, b v ) (fi, v = 1 , . . . , n) regulär ist. Wie im Beweis zu 37. 3 folgt jetzt: Zu linear unabhängigen Vektoren b j , . . ., &B gibt es (ebenfalls linear unabhängige) Vektoren . . . , a„ e X mit (aM, b v ) = (p, v = 1,. .., n).

§ 38 Der Dualraum Es sei X ein Vektorraum über K. Dann ist die Menge X* = L(X, K) aller Linearformen von X, also aller linearen Abbildungen K von X in den Skalarenkörper, selbst ein Vektorraum über K, den man den Dualraum

§ 38 Der Dualraum

257

von X nennt. Das Raumpaar (X, X*) wird ein duales Raumpaar, wenn man das skalare Produkt eines Vektors j e X und einer Linearform