Lineare Algebra und Analytische Geometrie [First ed.] 9783764321789, 9783034876421


225 91 11MB

German Pages 366 [368] Year 2003

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Cover page
Inhaltsverzeichnis
0 Schulweisheiten
§1 Vektoren
§2 Das Skalarprodukt
§3 Komplexe Zahlen
§4 Das Vektorprodukt
§5 Aufgaben
1 Vektorräume
§1 Gruppen, Ringe, Körper
§2 Homomorphismen
§3 Vektorräume
§4 Basen
§5 Geometrische Anwendungen
§6 Aufgaben
2 Matrizenrechnung
§1 Zeilenumformungen
§2 Lineare Abbildungen
§3 Matrizen
§4 Lineare Gleichungssysteme
§5 Aufgaben
3 Die Determinante
§1 Polynome
§2 Definition der Determinante
§3 Eigenschaften einer Determinante
§4 Eigenwerte
§5 Das charakteristische Polynom
§6 Aufgaben
4 Bilinearformen
§1 Bilinearformen und quadratische Formen
§2 Euklidische Räume
§3 Orthogonale Gruppen
§4 Hauptachsentransformation
§5 Unitäre Räume
§6 Aufgaben
5 Die Jordansche Normalform
§1 Im Komplexen
§2 Im Reellen
§3 Die Komplexifizierung
§4 Unitäre und normale Endomorphismen
§5 Die Normalform orthogonaler Matrizen
§6 Berechnen der Jordanschen Normalform
§ 7 Lineare Differentialgleichungen
§8 Die Normalformen-Tabelle
§9 Aufgaben
6 Geometrie
§1 Flächen zweiter Ordnung
§2 Kegelschnitte und Regelflächen
§3 Der Projektive Raum
§4 Projektivitäten
§5 Projektive Dualität
§6 Homogene Gleichungen
§7 Affine Hauptachsentransformation
§8 Der topologische Typ der Quadriken
§9 Bewegungen
§10 Quadriken und ihre Gleichungen
§11 Aufgaben
7 Tensorrechnung
§1 Kategorien und Funktoren
§2 Das Tensorprodukt von Vektorräumen
§3 Alternierende Formen
§4 Die äußere Algebra
§5 Aufgaben
8 Lineare Gruppen und
Liealgebren
§1 Gruppenoperationen
§2 Gruppen
§3 Affine Räume
§4 Gaußelimination
§5 Iwasawa-Zerlegung, Polarzerlegung, Jordan-Chevalley-Zerlegung
§6 Exponentialfunktion und Logarithmus
§7 Liealgebren
§8 Die adjungierte Darstellung
§9 Aufgaben
9 Quaternionen und orthogonale
Gruppen
§1 Die Gruppe SO(3) und ihre Liealgebra
§2 Quaternionen
§3 Die Gruppen SU(2), SO(3) und SO(4)
§4 Die symplektischen Gruppen
§5 Die Lorentzgruppe
§6 Kausalität und die Lorentzgruppe
§7 Aufgaben
10 Ringe und Moduln
§1 Ringe
§2 Polynomringe
§3 Symmetrische Polynome
§4 Potenzreihen und symmetrische Polynome
§5 Endomorphismen und symmetrische Polynome
§6 Interpolation und der erste Zerlegungssatz
§7 Der Quotientenkörper
§8 Moduln
§9 Matrizen über Ringen
§10 Hauptidealringe
§11 Moduln über Hauptidealringen
§12 Anwendungen des Elementarteilersatzes
§13 Der charakteristische Endomorphismus
§14 Aufgaben
Literatur
Index
Recommend Papers

Lineare Algebra und Analytische Geometrie [First ed.]
 9783764321789, 9783034876421

  • Commentary
  • With digital table of contents.
  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Theodor Bröcker

Lineare Algebra und Analytische Geometrie Ein Lehrbuch für Physiker und Mathematiker

Birkhäuser Verlag Basel · Boston ' Berlin

Autor: Theodor Br6cker NWF I - Mathematik Universităt Regensburg D-93040 Regensburg e-mail: [email protected]

Bibliografische Information der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Intemet uber abrufbar.

Birkhăuser Verlag, Basel - Boston - Berlin

Das Werk ist urheberrechtlich geschutzt. Die dadurch begrundeten Rechte, insbesondere die des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfăltigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, biei ben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfăltigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes in der jeweils geltenden Fassung zulăssig. Sie ist grundsătzlich vergutungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechts.

ISBN 978-3-7643-2178-9 ISBN 978-3-0348-7642-1 (eBook) DOI 10.1007/978-3-0348-7642-1 © 2003

Birkhăuser Verlag, Postfach 133, CH-401 O Basel, Schweiz Ein Unternehmen der BertelsmannSpringer Gruppe Gedruck auf săurefreiem Papier, hergestellt aus chlorfrei gebleichtem Zellstoff. TCF =

987654321

Inhaltsverzeichnis Kapitel 0 Schulweisheiten § 1 Vektoren im ffi.n § 2 Das Skalarprodukt § 3 Komplexe Zahlen . § 4 Das Vektorprodukt § 5 Aufgaben . . . . .

1 1

5

10 14

17

Kapitel I Vektorräume § 1 Gruppen, Ringe, Körper § 2 Homomorphismen § 3 Vektorräume . . . . . . § 4 Basen . . . . . . . . . . § 5 Geometrische Anwendungen . § 6 Aufgaben . . . . . . . .

21 21 28 32

Kapitel II Matrizenrechnung § 1 Zeilenumformungen . § 2 Lineare Abbildungen .. § 3 Matrizen......... § 4 Lineare Gleichungssysteme . § 5 Aufgaben . . . . . . . .

55

Kapitel III Die Determinante § 1 Polynome . . . . . . . . . . . . . . § 2 Definition der Determinante . . . . § 3 Eigenschaften einer Determinante . § 4 Eigenwerte . . . . . . . . . . . § 5 Das charakteristische Polynom § 6 Aufgaben . . . . . . . . . . . .

83 83

37 44

47

55 58

63 71

77

88 93

98 101 105

VI

Kapitel IV Bilinearformen § 1 Bilinearformen und quadratische Formen . § 2 Euklidische Räume . . . . . § 3 Orthogonale Gruppen . . . § 4 Hauptachsentransformation § 5 Unitäre Räume § 6 Aufgaben . . . . . . . . . . Kapitel V Die Jordansehe Normalform § 1 Im Komplexen . . . . § 2 Im Reellen. . . . . . . . . . . . . § 3 Die Komplexifizierung . . . . . . § 4 Unitäre und normale Endomorphismen . § 5 Die Normalform orthogonaler Matrizen. § 6 Berechnen der J ordanschen Normalform § 7 Lineare Differentialgleichungen § 8 Die Normalformen-Tabelle . § 9 Aufgaben . . . . . . . . . .

Inhaltsverzeichnis 109 109 113 117

120 127 132 141

141 148 150 154 155 156 158 159 160

Kapitel VI Geometrie § 1 Flächen zweiter Ordnung § 2 Kegelschnitte und Regelflächen § 3 Der Projektive Raum. § 4 Projektivitäten . . . . . § 5 Projektive Dualität . . . § 6 Homogene Gleichungen § 7 Affine Hauptachsentransformation § 8 Der topologische Typ der Quadriken § 9 Bewegungen............ § 10 Quadriken und ihre Gleichungen § 11 Aufgaben . . . . . . . . . . . . .

163

Kapitel VIITensorrechnung § 1 Kategorien und FUnktoren . . . . . . . § 2 Das Tensorprodukt von Vektorräumen § 3 Alternierende Formen § 4 Die äußere Algebra . § 5 Aufgaben . . . . . . .

209

Kapitel VIII Lineare Gruppen und Liealgebren § 1 Gruppenoperationen § 2 Gruppen . . . . . § 3 Affine Räume . . § 4 Gaußelimination

233

163 170 174 179 183 184 187 190 196 197 204 209 212 219 226

229 233 236 240 244

Inhaltsverzeichnis

§5 §6 §7 §8 §9

Iwasawa-Zerlegung, Polarzerlegung, Jordan-Chevalley-Zerlegung Exponentialfunktion und Logarithmus Liealgebren . . . . . . . . . Die adjungierte Darstellung Aufgaben . . . . . . . . . .

vii

250 253 257 260 263

Kapitel IX Quaternionen und orthogonale Gruppen § 1 Die Gruppe SO(3) und ihre Liealgebra § 2 Quaternionen.............. § 3 Die Gruppen SU(2), SO(3) und SO(4) § 4 Die symplektischen Gruppen . . . § 5 Die Lorentzgruppe . . . . . . . . . § 6 Kausalität und die Lorentzgruppe . § 7 Aufgaben . . . . . . . . . . . . . .

269 269 273 277 283 288 295 304

Kapitel X Ringe und Moduln § 1 Ringe . . . . . . . . . . § 2 Polynomringe . . . . . . § 3 Symmetrische Polynome § 4 Potenzreihen und symmetrische Polynome § 5 Endomorphismen und symmetrische Polynome § 6 Interpolation und der erste Zerlegungssatz . § 7 Der Quotientenkörper § 8 Moduln . . . . . . . . § 9 Matrizen über Ringen § 10 Hauptidealringe . . . . § 11 Moduln über Hauptidealringen § 12 Anwendungen des Elementarteilersatzes § 13 Der charakteristische Endomorphismus . § 14 Aufgaben . . . . . . . . . . . . . . . . .

307 307 309 312 316 322 324 327 329 334 339 341 347 350 353

Literatur

355

Index

357

Vorwort Die mathematischen Formeln ... Sie spielen nur mit sich selbst, drücken nichts als ihre wunderbare Natur aus, und eben darum sind sie so ausdrucksvoll - eben darum spiegelt sich in ihnen das seltsame Verhältnisspiel der Dinge. Die Grundbegriffe der Linearen Algebra, wie man sie zur Vorbereitung einer Vorlesung über Algebra braucht, lassen sich auf einem Dutzend Seiten vollständig darstellen. Solche Kürze wird vielleicht gerade Algebraikern vom Fach besonders einleuchten. Aber auf der anderen Seite stehen Bedürfnisse und Interessen aus der Analysis, Geometrie und Physik, die weit über das hinausgehen, was man in einem zweisemestrigen Kurs bewältigen kann. Die Theorie der Liealgebren, das Studium der orthogonalen Gruppen, die Grundlagen der speziellen Relativitätstheorie, die Übertragung der Analysis auf Mannigfaltigkeiten und die Grundlagen der Projektiven Geometrie, -- all das ist eigentlich nur Lineare Algebra. Nun ist das Buch, das ich hier vorlege, auch nicht enzyklopädisch, aber ich möchte doch Wege zeigen, die aus dem einfachen Rechenschematismus, mit dem die Lineare Algebra beginnt, in reiche, vielfältige, sinnvolle und anschauliche Gebiete führen. Meine Darstellung beginnt mit sehr geringer Abstraktion. Das nullte Kapitel verlangt nur, was man auf der Schule machen kann, aber es stellt schon die Studenten der Physik (und die Kollegen) für einige Zeit zufrieden. Auch danach geht es mit der Abstraktion behutsam voran, und ich scheue mich nicht, vieles mehrfach zu behandeln, rechnerisch, algebraisch und geometrisch. Ich glaube nicht, dass man auf diese Weise Zeit verliert. Am Ende aber soll doch dem Studenten die kategorielle Darstellung der Mathematik natürlich und vertraut sein. An Vorkenntnissen und Können beim Leser verlange ich zunächst nicht mehr, als was man aus der Schule mitbringen sollte. Nach und nach, besonders in Anwendungen und Beispielen, sollte man auch die normalen Grundkenntnisse aus den Anfängervorlesungen der Analysis bereit haben, und in den geometrischen Kapiteln VI, VIII wird man wohl das Bedürfnis empfinden, etwas mehr über Topologie und Mannigfaltigkeiten zu erfahren. Hier verweise ich Interessierte auf das Buch von Bröcker und Jänich im Literaturverzeichnis.

Vorwort

x

Die Reihenfolge ist so angelegt, dass man am Ende von Kapitel V alles beisammen hat, was man normalerweise von einem Kurs über Lineare Algebra verlangt. In meinen jüngeren Jahren war ich so weit nach einem Semester. Später bin ich nur bis zum Kapitel IV gekommen, und das ist immer noch alles, was die Physiker von uns verlangen. Aber was danach kommt, enthält vieles, was Physiker nicht leicht und bequem finden und doch eigentlich bräuchten. Und neben Systematik, Anwendung und Anschauung gehört zur Mathematik, wie ich vorführen will, auch die Lust an schönen und sinnvollen Formeln. Wo ich nun dreimal auf das Zusammenleben von Mathematikern und Physikern Bezug genommen habe, erübrigt es sich wohl auszuführen, dass dieses Buch überhaupt der Physik verehrungsvoll zugetan ist. Nach wie vor erfahren wir beide von einander die meiste und tiefste Anregung, auch wenn und wo wir uns nicht leicht einig werden. Die Motti, die ich, ohne die Autoren zu verraten, mir zum Vergnügen und manchmal gleichsam als Rätsel, den Kapiteln vorangestellt habe, bitte ich mir wohlwollend durchgehen zu lassen, und die Aufgaben will ich besonders empfehlen. Ich danke Frau Karin Zirngibl, die das Manuskript gesetzt hat, und Herrn Dr. Marco Hien für lange geduldige Hilfe. Mehrere Kollegen haben mich durch ihr Interesse an früheren Versionen des Manuskripts ermutigt, es zu vollenden. Ihnen bringe ich mich dankbar in Erinnerung. Schließlich und besonders danke ich Herrn Dr. Thomas Hempfling vom Birkhäuser Verlag für die Sorgfalt und Mühe, die er darauf verwandt hat, meiner Vorlage den letzten Schliff zu geben.

Regensburg im Frühjahr 2003,

Theodor Bröcker

Kapitel 0

Schulweisheiten Dreifach ist des Raumes Maß: Rastlos fort ahn Unterlass Strebt die Länge; fort ins Weite Endlos gießet sich die Breite; Grundlos senkt die Tiefe sich.

Worin an einiges erinnert wird, was Sie meist wohl schon aus der Schule kennen, damit der eigentliche, strenger begründete Text mit Kapitel I nicht ganz unmotiviert beginne.

§1

Vektoren im

IR( n

Wir werden es im Folgenden mit verschiedenen Zahlbereichen zu tun haben, und ich appelliere ohne weitere Begründung an Schulerinnerungen, wenn ich sage: Die natürlichen Zahlen sind die Zahlen 1,2,3,4, ... , und die Menge all dieser Zahlen wird mit Menge der natürlichen Zahlen {n I n ist eine natürliche Zahl} bezeichnet. Nimmt man noch die Zahl

{1,2,3, ... }

°

hinzu, so erhält man die Menge

No = {O, 1, 2, 3, ... } = N u {O}. Die Menge der ganzen Zahlen Z besteht aus diesen und ihren Negativen Z := Nou-N = { ... ,-3,-2,-1,O,1,2,3, ... }.

T. Bröcker, Lineare Algebra und Analytische Geometrie © Birkhäuser Verlag 2003

Kapitel 0. Schulweisheiten

2

Die Menge der rationalen Zahlen Q ist die Menge der Brüche mit ganzem Zähler und Nenner:

Q:=

Z,n#O}.

{~lm,nE

Du sollst nicht durch Null dividieren! Hiermit kommt man aber nicht weit, wie etwa die Analysis-Vorlesung lehrt, sondern man betrachtet weiter die Menge IR der reellen Zahlen, welche eine Dezimaldarstellung ±aO,ala2 a 3'"

zulassen, mit ao E No und a" E {O, 1, ... , 9} für v

> 0, wie zum Beispiel:

3,1415926 .... Das sind natürlich alles ganz unbefriedigende Erklärungen, wobei wir auf die Dauer auch keineswegs stehen bleiben werden, nur vorläufig. Wir wissen, dass man die reellen Zahlen benutzen kann, um die Punkte auf einer Geraden zu beschreiben: --0--0-----'0----+

o

1

x

Sagt man, wo 0 und 1 liegt, so entspricht jedem Punkt auf der Geraden eine reelle Zahl und jeder reellen Zahl ein Punkt. Ganz ähnlich kann man die Punkte der Ebene durch Paare reeller Zahlen (x, y), mit x, y E IR, bezeichnen:

y -----------9 (x, y) 1

:I I I I

-----r--IO----~

x

1

Und wenn wir uns vor die Aufgabe gestellt sehen, "genau" zu sagen, was denn "die Ebene" sein soll, so können wir zuversichtlich sagen: Man gebe uns nur IR, dann wissen wir weiter. Nach demselben Verfahren lassen sich Tripel (x, y, z) mit x, y, z E IR verwenden, um die Punkte im "dreidimensionalen Raum" zu bezeichnen: ...------------,----,(x,y,z) z

y

j)-;,.""--------;I)

x

(x,y)

§l. Vektoren im IR. n

3

Wir zeichnen (x, y, z) auch als Pfeil vom Ursprung (0,0,0) nach, d.h. mit Spitze in (x, y, z). Obwohl unsere geometrische Anschauung nicht weiter reicht als bis zum dreidimensionalen Raum - dreifach ist des Raumes Maß - , so gibt es doch kein Hindernis, nun ein Quadrupel reeller Zahlen

als Punkt im vierdimensionalen Raum anzusehen, und so immer weiter, und allgemein: (1.1) Definition. Ein Punkt oder Vektor in IR. n ist ein n-Thpel reeller Zahlen

und IR. n ist die Menge aller dieser n- Thpel. Wir bezeichnen einen Punkt in IR. n , also ein solches n- Thpel, mit einem Buchstaben

und die reelle Zahl xv, v = 1, ... ,n, heißt die v-te Komponente oder Koordinate von x. Zwei n-Thpel (Punkte, Vektoren) sind nach Definition genau dann gleich, wenn ihre entsprechenden Koordinaten übereinstimmen. Beispiel.

(1,2) -=I- (2,1).

Der Raum IR. n lässt vielerlei Interpretationen zu, zum Beispiel:

1R.3

:

Eine ganz gute Beschreibung des Raumes, in dem wir leben.

1R.4 :

Raum-Zeit.

1R.37 :

Ein Punkt beschreibt die Gehälter von 37 ausgewählten Leuten.

Der eigentliche Ursprung dieser Begriffe liegt aber in der Physik, man denkt bei einem Vektor an eine Kraft, die in Richtung des Punktes (von = (0, ... ,0) E IR. n aus gesehen) wirkt, und zwar mit einer Stärke, die der Länge des Vektors entspricht.

°

(1.2) Addition und Multiplikation mit Skalaren. Wir betrachten einen festen Raum IR. n , also ein fest gewähltes nE No. Sei IR.0 = {o}. Sind x = (Xl, ... ,Xn ) und Y = (Yl, ... ,Yn) aus IR. n , so sei

Ist c E IR. , so sei

Kapitel O. Schulweisheiten

4 Folgende Figuren zeigen die Geometrische Deutung:

o

x

----0---------0----0----0---------0----4

cx, c

0

{==}

x

-# o.

Dies ist durchaus beweis bedürftig, und ich verweise auf die Analysis-Vorlesung oder einschlägige Analysis-Lehrbücher. (2.3) Definition. Die Norm

lxi von x E

IR n ist

Ixl=~· Man sagt statt Norm auch Länge oder Betrag. Es gilt also:

lxi

=

Jxi + ... + x~.

6

Kapitel O. Schulweisheiten

Die Wurzel ist positiv zu nehmen. Die geometrische Motivation für die Formel entnimmt man folgenden Figuren und dem Satz des Pythagoras:

X2

t ____ ~_a(.~~e_!~L+ x~ I I

I I I I I I

I

I

~-------------~6-+ Xl

Ebenso ergibt sich der Induktionsschritt Xn

Ixl 2 = I(XI, ... , Xn-1W + x;:

----------------·9 X I I

I I I

I I I I

~-------------~)6

(XI, ... ,Xn-I)E IR n - 1

(2.4) Für alle a

E ]R

und x E

]Rn

gilt laxl =

lai' IxI-

Beweis. Es ist laxl 2 = (ax,ax) = a(x,ax) = a 2 . (x,x) = a 2 ·lxI 2 . Jetzt benutze ich ein weiteres Resultat aus der Analysis: Aus einer positiven reellen Zahl kann man eindeutig die positive Wurzel ziehen. 0 Ein Vektor x E ]Rn heißt Einheitsvektor, wenn lxi = 1 gilt. Ist x E ]Rn und x =1= 0, so ist (I/lxi) . x ein Einheitsvektor, und nur dieser und sein Negativer sind Einheitsvektoren, die Vielfache von x sind. Beweis. Sei y

=1=

0, dann gilt für a E lR:

layl

= lyl

~

lai =

1 ~ a

= ±l.

o

Sind x, y E ]Rn und x, y =1= 0, so sagen wir: x hat gleiche Richtung wie y, wenn x = a· y für ein a > 0 aus ]R gilt; x und y haben entgegengesetzte Richtung, wenn entsprechend a < 0 gilt. Zur Übung im Beweisen machen wir die Bemerkung. Genau dann haben x und y gleiche Richtung, wenn gilt: (I/lxI) . x = (I/Iyl) . y.

Beweis. Er hat zwei Richtungen, wie die Behauptung, nämlich x = ay und a > 0 ===} I/lxi = I/layl = I/(a 'Iyl), also (I/lxi) . x = I/(alyl) . ay = (I/lyl) . y.

===}:

{=:

x

= :~: . y und Ixl/lyl > o.

o

§2. Das Skalarprodukt

7

In dieser Weise können wir sagen wie die Physiker: Ein Vektor ist gegeben durch seine Richtung (einen Einheitsvektor) und seine Länge. Die Menge aller Einheitsvektoren bildet die Einheitssphäre

sn-l

=

{x E

jRn

Ilxl =

I}.

1

(2.5) Definition. Der Abstand zwischen den Punkten x, y E

Y-X0>L~

jRn

ist

Ix-yl = Iy-xl.

x

Die Vektoren x, y E jRn heißen orthogonal, wenn (x, y) motiviert: Dass x zu y orthogonal ist, sollte bedeuten:

=

°

gilt. Letzteres wird so

x

Aber

Ix - Yl2 = Ixl 2+ IYl2 - 2(x, y), Ix + Yl2 = Ixl 2+ IYl2 + 2(x, y).

Dass beides gleich ist, ist äquivalent zu (x, y)

= 0.

Beispiel. Sei v E {I, ... , n} und ev der v-te Standard-Basisvektor

= (0, ... ,0,1,0, ... ,0)

ev

°sonst. Dann gilt:

mit 1 an der v-ten Stelle und

(e v, e) /-'

=

u1:v /-,

••

=

{o

für v -=f- j.L, 1fürv=j.L

( v, j.L E { 1, ... , n }) .

Kapitel O. Schulweisheiten

8

Das Symbol t5 V /1> mit dieser Erklärung heißt Kronecker-Symbol. Die Standard-Basisvektoren bilden ein vollständiges Orthonormalsystem. Mit diesen Worten ist folgendes gemeint: orthonormal: Es gilt (e v , e/1» = t5 V /1>' V, J.L E {I, ... ,n}. vollständig: Jeder Vektor x E IR n schreibt sich eindeutig in der Form n

X

= LX/1>.e/1>' /1>=1

wobei übrigens

Xv

=

(x, ev ) gilt, denn es ist ja

(2.6) Satz von Pythagoras. Sind x, Y E IR n orthogonal, so gilt

Beweis. Allgemein ist Ix

+ yI 2 = Ixl 2 + lyI 2 + 2(x, y).

Gegeben seien zwei Vektoren x, y E IR n , x

y

=

c· x

+z

=I=-

D

O. Wir suchen eine Zerlegung

mit z E IR n , (x, z)

=

0 und c E IR.

(2.7) Bemerkung. Eine solche Zerlegung ist auf genau eine Weise möglich, und es gilt c = (x, y) /lxI 2 . Der Vektor c· x heißt die (Orthogonal)-Projektion von y auf

x.

Beweis. Eindeutigkeit: z = y-cx und (x, z) = 0 ===} 0 = (x, y-cx) = (x, y)-clxI 2 , also ist c wie behauptet. Dass mit diesem c eine Zerlegung wie gefordert entsteht, rechnet man leicht zurück. D Wenden wir nun auf die Gleichung y entsteht die wichtige

=

cx

+z

den Satz von Pythagoras an, so

(2.8) Ungleichung von Schwarz. Für x, y E IR n gilt I(x, y)1
für x E R Aber wir wollen eine Erweiterung des Zahlbereichs IR konstruieren, also die Menge IR der reellen Zahlen in eine größere Menge C , die Menge der komplexen Zahlen, so einbetten, dass diese Gleichung mit der neuen Art Zahlen lösbar ist. Wie in gewissen neueren Romanen stelle ich die Konstruktion in zwei Aspekten der Handlung dar: erst die Motivation, dann die formale Konstruktion. Motivation: Wir erfinden eine neue Zahl i mit der Multiplikationsregel

=

i2

-1.

Die komplexen Zahlen sind dann alle Zahlen a + bi

mit

a, b

E

R

Addition: Multiplikation:

Man kann eine reelle Zahl a als spezielle komplexe Zahl a

+ Oi

auffassen; in diesem Sinn ist IR eine Teilmenge von C . Konstruktion: (3.1) Definition. Die Menge C der komplexen Zahlen ist gleich IR 2 • Die komplexen Zahlen sind also Paare (a,b) mit a,b E R Addition: ist durch die Addition der Vektoren in IR 2 gegeben. Multiplikation: für (al, bd, (a2, b2) E C sei

(al,b 1)· (a2,b 2) := (ala2 - b1b2,a 1b2 + b1a2). Man hat eine injektive Abbildung cp:IR---+C,

al---+(a,O),

mit dem Bild {(a,O) la E IR}, und

cp(al + a2) cp(al . a2)

cp(ad + cp(a2)' cp(al) . cp(a2)'

§3. Komplexe Zahlen

11

Wir fassen die reelle Zahl a E IR als dieselbe Zahl auf wie (a,O) E ce, d.h. wir identifizieren

C,

Z

f---+

C. z.

Wir stellen fest:

ICu ~ Cvl

=

1(- (u ~ v)1

=

ICI·lu ~ vi

=

lu ~ vi,

u, v E C.

Das heißt, Abstände bleiben erhalten, die Abbildung ist eine Bewegung der Ebene, und jedenfalls (- 0 = 0, die 0 bleibt fest. Nun, die Multiplikation mit i E 51 hat die Wirkung Of---+O,

1f---+i,

if-;~l,

13

§3. Komplexe Zahlen

und weil sie eine Bewegung von C beschreibt, muss es die Drehung um einen rechten Winkel in positiver Richtung sein. Allgemein hat demnach die Bewegung (- : C -; C die Wirkung

o ~ 0,

1 ~ (,

i

~

( . i,

wobei Letzteres aus ( durch Drehung links herum um einen rechten Winkel hervorgeht, wie eben gesagt. (i

Daher bewirkt die Multiplikation mit (eine Drehung von C um 0 um den Winkel 'P zwischen der positiven reellen Achse und der Geraden durch 0 und (. Allgemein schreiben wir nun für ein beliebiges w E C : w

= r· (,

mit r

= Iwl,

1(1 =

1,

dann folgt: Die Multiplikation w·: C -; C,

z

~ W·

z,

setzt sich zusammen aus der Drehung (., gefolgt von der Streckung u ~ r· u mit dem reellen Faktor r; Multiplikation mit w bewirkt eine Drehstreckung von C. Erinnern wir uns wieder an Sinus und Kosinus, so können wir für ( E SI schreiben:

( =

cOS'P

+ i sin 'P mit 'P E [0,27[[,

und 'P =: Arg(() heisst das Argument von (. Multiplikation mit ( ist die Drehung um 'P.

lRi

sin 'P cos 'P

Kapitel O. Schulweisheiten

14

Ist entsprechend 1] = cos'l/J + i sin 'l/J, so ist die Multiplikation mit 1] die Drehung um 1/). Also ist die Multiplikation mit 1] . ( die Drehung um 'P + 'l/J, daher: (cos'l/J

+i

sin 'l/J) . (cos 'P

+i

sin 'P) =

1] . ( =

cos( 'P

+ 'l/J) + i

sin( 'P

+ 'l/J).

Ausmultiplizieren und Zerlegung nach Real- und Imaginärteil ergibt die Additionstheoreme für Sinus und Kosinus. Probieren Sie es nur aus, es ist sehr beeindruckend, wie einfach das herauskommt. Jetzt definiert man: (3.6) Eulersche Formel. ei'P

.-

cOS'P + i sin 'P.

Dann bedeutet obige Formel

Dies sind sehr geschickte Formeln in allen Rechnungen mit Winkelfunktionen, besonders Physikern zu empfehlen. Mit der Exponentialfunktion, also mit ei'P, ist viel einfacher umzugehen, als mit den Additionstheoremen für Sinus und Kosinus. Letztlich wird diese Funktion erst durch die Analysis ausreichend erklärt, aber wir wollen uns schon jetzt daran gewöhnen.

§4

Das Vektorprodukt

Im IR 3 , eine Spezialität unseres dreidimensionalen Raumes, die sich nicht auf höhere Dimensionen überträgt, gibt es ein Vektorprodukt: das Produkt zweier Vektoren ist wieder ein Vektor, das Kreuzprodukt der beiden Vektoren. Es ist in Koordinaten wie folgt erklärt:

(4.1) Definition des Vektorprodukts. Seien x,y

E

IR 3 .

Das kommt jetzt vorläufig als eine ganz willkürliche Formel daher. Merken Sie sich immerhin, wie die Indices zyklisch vorangehen: 23,31,12. Dieses Produkt hat folgende (4.2) Eigenschaften. Für alle x, y, z E IR 3 und a E IR gilt: (i) x x Y = -y x x, antikommutativ. (ii) x x (y + z) = (x x y) + (x x z), (x + y) x z = (x x z) + (y x z), distributiv. (iii) ax x y = x x ay = a(x x y). (iv) Jacobi-Identität: x x (y x z) + y x (z x x) + z x (x x y) = O. (v) Graßmann-Identität: (x x y) x z = (x, z)y - (y, z)x. (vi) x x y ist orthogonal zu x und y.

15

§4. Das Vektorprodukt

(vii) Ix x Yl2 = Ixl 2 . IYl2 - (x, y)2, und dies verschwindet nur, wenn gilt x = oder y = ax für ein a E IR. (viii) Für die Standard-Basisvektoren: el x e2 = e3, e2 x e3 = el, e3 x el = e2, e v x eil = -eil x e v , also e v x e u = (1/ = 1,2,3). Die formalen Eigenschaften (i)-(iv) fasst man zusammen in der Aussage: ]R3 mit dem Kreuzprodukt ist eine reelle Liealgebra.

°

°

Beweis. (i)-(iii), (viii) sind sehr leicht direkt aus der Formel (4.1) zu ersehen. Auch (v) ergibt sich aus der Formel durch längere geistlose Rechnung. Man kann aber auch so argumentieren: Zunächst prüft man, dass die Formel für Standard-Basisvektoren richtig ist, und zwar mit (viii), und im Grunde gibt es da nicht viele Fälle, sie sind mehr oder weniger alle gleich. Dann sieht man aus (ii), (iii), dass die Formel sich auch auf Vielfache und Summen, also auf alle Vektoren überträgt. (iv) folgt aus (v), dreimal hingeschrieben, und (vi) durch ausrechnen: (x, x x y) = XIX2Y3 - XIX3Y2 + X2X3Yl - X2XIY3 + X3XlY2 - X3X2Yl = 0, (y,x x y) = -(y,y x x) = wie eben. Das genüge als Kostprobe, und auch (vii) dürfen Sie einfach ausrechnen. Nicht alles in der Mathematik ist so einfach. D

°

Aus (viii) ersieht man, dass das Vektorprodukt nicht assoziativ ist, denn (el x ed x e2 el x (el x e2) Setzen wir in (vii) ein (x, y)2

°

x e2 = 0, el x e3 = -e2·

= Ixl 2 . IYl2 . cos 2(x, y), so ergibt sich

und definieren wir den Sinus durch den letzten Faktor, so steht da Ix x yl

= Ixl·lyl· I sin(x, y)l·

Also: x x y ist orthogonal zu x, y und die Länge ist der Flächeninhalt des Parallelogramms, das durch x, y beschrieben wird:

,~-;{IrrrrrrrrI11}7 / /

IYllsin(X'Y)I~ x

Dadurch ist x x y bis aufs Vorzeichen bestimmt. Hieraus ergibt sich, dass

I(x x y, z)1

Ix x yl'lzl'lcos(x x y,z)1

16

Kapitel O. Schulweisheiten

das Volumen des Parallelotops (Spats) ist, das durch x, y, z beschrieben wird.

/

/

/

/

/

/

/

/

-------------(/

Richtung von x x y, senkrecht zu x, y

~

Fläche Ix x

x

yl

Die Größe

(x x y, z) = det(x, y, z) heißt Spatprodukt oder Determinante von x, y, z. Sie kann wie folgt berechnet werden: Man bildet die Matrix, d.h. das quadratische Schema der Koordinaten der drei Vektoren Xl X2 X3 Xl X2

YI Zl

'" '"

Y:3

YI

Y2

Z2

z3

zl

z2

Y2

'" '"

und schreibt, wie ersichtlich, die beiden ersten Spalten nocheinmal dahinter. Dann bilde die Summe der drei Produkte entlang der Linien " und ziehe die Summe der drei Produkte entlang der Linien." ab:

(4.3) Eigenschaften des Spatprodukts.

(i) Es ist linear in jeder Variablen, also für x, y, z det(ax + a' x', y, z) = a det(x, y, z)

E

lR. 3 , a, a' E lR.:

+ a' det(x', y, z).

(ii) Wenn zwei der Vektoren übereinstimmen, verschwindet das Spatprodukt. (iii) Wenn man zwei Vektoren vertauscht, kommt das Negative heraus.

Beweis. (i) sieht man an der Formel, (ii) stimmt, falls x = y, aber auch, falls x = z, denn x x y ist senkrecht zu x, also zu z, entsprechend, falls y = z. (iii): z.B. 0= det(x, y + z, Y + z) = det(x, y, y) + det(x, y, z) + det(x, z, y) + det(x, z, z) = det(x, y, z) + det(x, z, y), also... D

§5. Aufgaben

17

Man sieht nun wieder leicht, dass das Spat produkt durch diese Eigenschaften festgelegt ist, wenn man noch die Normierung hinzufügt:

Übrigens ist det(x, y, x x y) = Ix X Yl2 :::: 0, und wenn man einmal (bis aufs Vorzeichen) die Determinante kennt, ist dadurch auch das Vorzeichen des Spatprodukts bestimmt: Hält man drei Finger (in fester Reihenfolge) in Richtung von el, e2, e3, und bewegt sie dann, starr gegeneinander, im Raum herum, so zeigen sie stets ein Tripel von Vektoren a,b,c mit det(a,b,c) > 0, denn weil c orthogonal zu a,b bleibt, ist jedenfalls stets det(a, b, c) =I- 0, und weil zu Anfang die Determinante positiv ist, bleibt sie aus Stetigkeitsgründen positiv. Also zeigt der dritte Finger stets in Richtung von a x b, wenn der erste und zweite in Richtung von a, b zeigen. Wir werden auf diesen Punkt zurückkommen, wenn von Orientierung die Rede ist. (4.4) Sprechweise. Die Vektoren von x, y E IR 3 heißen linear abhängig, wenn x x y = 0, linear unabhängig, wenn x x y =I- 0 gilt. Soviel also vorläufig und zur Erinnerung, aber so kann es doch nicht weitergehen. Da bleibt doch manches genauer zu erklären: Was heißt schon stetig? Wie ist das mit der Wurzel, und überhaupt ...

§5

Aufgaben

In Aufgaben verwende ich als Anrede die Du-Form. Das soll niemand zu nahe treten. Ein jeder liest für sich selbst und mag sich so auch selbst zur Lösung ermuntern. Wenn eine Aufgabe auf eine Behauptung hinausläuft, so ist diese zu zeigen. 1. Sei E C IR 3 die Menge der Vektoren (x,y,z) mit x Vektoren v, w E E an, so dass gilt:

E

+ 2y + 3z=0.

Gib zwei

= {av + bw I a, bE IR} .

2. Sei v = (1,2,3), w = (3,2,1). Gib ein Tripel (a, b, c) reeller Zahlen an, so dass die Ebene E = {p. v + q . w I p, q E IR} genau aus den Vektoren (x, y, z) besteht, für die gilt ax+by+cz =

o.

18

KapitelO. Schulweisheiten 3. Lässt sich jeder Vektor des lR3 in der Form

a· u

+

b· v

+

c· w,

a, b, C E lR

schreiben, für

u = (1,2,3),

v = (1,4,9),

W

= (1,8,27)?

4. Seien x = (Xl, X2), y = (YI, Y2) E lR 2. Genau dann ist X Vielfaches von Y oder Y Vielfaches von x, wenn XlY2 - YlX2 = o.

5. Seien x, Y Vektoren des lR n , so dass für jeden Vektor z E lRn gilt (x, z) = (y, z). Gilt x = y? 6. Zeige, dass Vektoren x, y E lRn genau dann zueinander orthogonal sind, wenn für alle c E lR gilt:

Ix + cyl 2 lxi·

7. Seien Xl, ... , Xk Vektoren im lR n , so dass

V,J-l=1,2, ... ,k.

Ist Y E lRn ein beliebiger Vektor und Cv = (y, xv) (v = 1, ... , k) und ist (bI, ... , bk ) ein beliebiges reelles k- Thpel, so ist

Iy -

k

Lcvxvl :::;

Iy -

v=l

Zeichne eine Skizze für n

k

Lbvxvl . v=l

= 2 und k =

1.

8. Zeige folgende Eigenschaften der Determinante:

(i) det(u+v,y,z) = det(u,y,z) +det(v,y,z). (ii) Wenn zwei der drei Vektoren x, y, z gleich sind, so ist det(x, y, z) (iii) det(x,y,z)

= -det(y,x,z) = det(y,z,x).

(iv) det(x, y, x x y) = 0 genau dann, wenn x x y = O. (v) det(el,e2,e3) =? 9. Sei x E lR 3. Zeige, es gibt Vektoren y, z E lR 3, so dass x=yxz.

=

O.

§5. Aufgaben

19

10. Für jedes vollständige Orthonormalsystem

el, e2, e3

von

]R3

und v E

]R3

gilt

11. Schreibe die folgenden komplexen Zahlen in der Form a + bi mit a, b E IR: (1

+ 2i)(1 (1 + i)2

i)

12 + il . (1 - 2i)

(1

+ i) . (3 + i)

n

'""' L..J Z·v •

v=O

12. Zeige, dass es zu jeder komplexen Zahl z E C eine komplexe Zahl u gibt, so dass u 2 = z. Es darf außer elementaren algebraischen Rechnungen nur benutzt werden, dass jede positive reelle Zahl eine reelle Wurzel hat.

Kapitel I

Vektorräume Que devins-je quand je m' apert;us que personne ne pouvait m 'expliquer comment il se jaisait que: moins par moins donne plus (- x - = + ) ?

Worin wir zum Thema der Vorlesung kommen: der Theorie der Vektorräume über einem Körper.

§1

Gruppen, Ringe, Körper

Bisher haben wir mit Zahlen einfach drauflos gerechnet. Jetzt müssen wir genauer erklären, nach welchen Regeln hier geschlossen werden soll. Wir werden also nicht sagen, was die Skalare eigentlich sind, von denen dann weiterhin die Rede ist, und woher man sie kriegt. Wir formulieren vielmehr nur Voraussetzungen über diese Skalare, die in verschiedener Situation auf verschiedene Weise erfüllt werden können. Was man da in der Linearen Algebra braucht, steht in der (1.1) Definition des Körpers. Ein Körper K besteht aus einer Menge (auch mit K bezeichnet) zusammen mit zwei Verknüpfungen, das sind Abbildungen K x K --+ K, die also einem Paar (a, b) von Elementen wieder ein Element aus K zuordnen, nämlich der Addition

+:

K x K

--+

K,

(a, b)

f--+

a + b,

.: K x K

--+

K,

(a, b)

f--+

a· b,

und der Multiplikation

mit folgenden Eigenschaften:

T. Bröcker, Lineare Algebra und Analytische Geometrie © Birkhäuser Verlag 2003

22

Kapitell. Vektorräume

(i)+ Die Addition ist assoziativ, d.h. für alle a, b, cE K gilt:

(ii)+ Es gibt ein Element

°

(a+b)+c

a+(b+c).

=

E K, die Null, so dass für jedes a E K gilt:

0+ a = a, und zu jedem a E K existiert ein b E K, das additiv Inverse oder Negative, mit b+a

= 0.

(iii)+ Die Addition ist kommutativ (oder abelsch), d.h. für alle a,b E K ist a+b = b+a. (i)· Die Multiplikation ist assoziativ, d.h. für alle a, b, cE K gilt: (a·b)·c = a·(b·c). (ii)· Es gibt ein Element 1

i=

°in K, die Eins, so dass für alle 1· a

und zu jedem a E K, a mit

i=

a E K gilt:

= a,

0, existiert ein b E K, das multiplikativ Inverse, b·a

=

1.

(iii)· Die Multiplikation ist kommutativ, d.h. für alle a, bE K gilt: a· b = b· a. (iv)+· Distributivgesetz: Für alle a, b, c E K gilt: a·(b+c)

= (a·b)+(a·c),

(b+c)·a

= (b·a)+(c·a).

Wir schreiben wieder a(b + c) = ab + ac, Punkt- vor Strichrechnung. Natürlich folgt eine der Regeln (iv) aus der anderen durch (iii). Beispiele. Wir kennen schon die folgenden Körper:

Ql, der Körper der rationalen Zahlen, lR, der Körper der reellen Zahlen, C. , der Körper der komplexen Zahlen, jeweils mit der gewohnten Addition und Multiplikation. Die Menge Ql( i) := {a + bi I a, b E Ql} C C. mit der in C. erklärten Addition und Multiplikation ist ein Körper; z.B.liegt das Inverse (a-bi)/(a 2 +b2 ) eines Elementes a + bi in Ql(i) wieder in Ql(i), ebenso 0,1, das Negative, Summe und Produkt. Das waren bisher alles Unterkörper - dezenter sagt man auch TeiIkörper - des Körpers C.

23

§1. Gruppen, Ringe, Körper

Hier der kleinste Körper lF 2. Er hat nur die beiden in den Axiomen geforderten Elemente 0,1. Alle Operationen sind offenbar schon durch die Axiome festgelegt, nur über den Wert von 1 + 1 in 1F2 könnte man zweifeln. Aber nach (ii)+ ist entweder 1 + 1 = 0 oder 0 + 1 = 0, und weil doch 0 + 1 = 1 i= 0, bleibt nur 1 + 1 = 0 in 1F2 . Die ganzen Zahlen Z mit der gewohnten Addition und Multiplikation bilden keinen Körper, das multiplikative Inverse fehlt. Ein Blick auf die Tabelle der Axiome zeigt, dass für die Multiplikation weitgehend dieselben Regeln gelten, wie für die Addition. Das ist schon ein Gewinn der axiomatischen Methode, dass man Folgerungen aus den Axiomen der Addition dann gleich auch auf die Multiplikation anwenden darf. Wir analysieren zunächst die Axiome (i), (ii).

(1.2) Definition. Eine Gruppe (G, .), kurz: G ist eine (ebenso bezeichnete) Menge G mit der Verknüpfung .: G x G

->

G,

(a, b)

I---t

a . b,

mit den Eigenschaften: (i) (a·b)·c

= a·(b·c) für alle a,b,cEG.

(ii) Es gibt ein (neutrales) Element e E G, für das gilt: e .a = a

für alle

a E G,

und zu jedem a E G existiert ein (inverses) Element bEG mit b· a

=

e.

Beispiele. Wenn K ein Körper ist, ist (K, +) eine Gruppe. Auch K* := K . . . . {O} mit der Multiplikation als Verknüpfung ist eine Gruppe. Da muss man eine Kleinigkeit zeigen - was nämlich? (Z, +) ist eine Gruppe, aber (N, +) nicht, es fehlt das Negative. Wichtig ist auch folgendes Beispiel: (1.3) Symmetrische Gruppen. Sei M eine beliebige Menge und S(M) die Menge aller Bijektionen a : M -> M, auch Permutationen von M genannt, mit der naheliegenden Verknüpfung: Sind a, TE S(M), so ist a 0 T die Zusammensetzung aOT: M->M,

ml---ta(T(m)).

Mit dieser Verknüpfung ist S(M) eine Gruppe. Beweis. Seien p, a, T E S(M), dann ist (Assoziativgesetz): po(aOT)(m)

= p(aoT(m)) = p(a(T(m))) = poa(T(m)) = (poa)oT(m)

Das neutrale Element ist die Identität 1 : M a E S(M) ist die Umkehrabbildung a- 1 .

->

M,

m

I---t

m, und das Inverse zu

o

Kapitell. Vektorräume

24

Ist die Menge M endlich, so kann man ihre Elemente durch

1,2,3, ... ,n benennen, und dann ist S(M) = S{l, 2, ... ,n} =: S(n). Man notiert eine solche Permutation 0' E S(n) zum Beispiel durch

,... , n)

, ... , O'(n) .

Wir wollen, um mal eine Gruppe explizit zu sehen, die Gruppe S(3) der sämtlichen Permutationen von drei Elementen 1,2,3, also der sämtlichen Bijektionen {I, 2, 3} ----+ {I, 2, 3} studieren. Sie hat 3! = 6 Elemente, nämlich: ( 123) 123

(~~~)

=

e,

C~~)

0',

(~~~)

1T,

=

T,

Die Verknüpfung beschreiben wir vollständig durch die Multiplikationstabelle, auch Cayley-Tafel genannt: 0 e 1T p 0' T

Hein Homomo'T'phismus von G'T'uppen. De'T' Kern von f ist die Unte'T'g'T'uppe

ker(f):= {gEGlf(g) = I} = f-l{l}CG.

Kapitell. Vektorräume

30

Genau dann ist f injektiv, wenn ker(f) = {l}. Genau dann ist f(x) = f(y), wenn xy-l E ker(f). Eine Abbildung f heißt injektiv, wenn gilt: f(x) = f(y) Homomorphismus heißt monomorph.

===}

x = y. Ein injektiver

Beweis. ker(f) ist eine Gruppe, allgemeiner: Ist U c H eine Untergruppe, so auch f-lU = {x E G I f(x) E U} c G. Sei nämlich x,y E rlU, also f(x),J(y) E U, dann ist f(xy-l) = f(x)f(y)-l E U, also xy-l E f-lU, und jedenfalls auch 1 E f-lU. Damit, wie eben gesagt, ist f-lU eine Untergruppe. Nun gilt: f(x) = f(y) {==} f(x)f(y)-l = 1 {==} f(xy-l) = 1 {==} xy-l E ker(f). Angenommen nun ker(f) = {I}, so folgt: xy-l E ker(f) {==} xy-l = 1 {==} x = y, also wenn f(x) = f(y), so x = y, und das heißt, f ist injektiv. Umgekehrt, wenn f injektiv ist, so enthält insbesondere f-l{l} = ker(f) nur die 1. 0 Das ist eine ganz einfache Bemerkung, die wir aber doch tausendundeinmal anwenden werden, hier meist auf abelsche Gruppen (Vektorräume), und wir wollen darum noch etwas dabei verweilen. Ist G eine Gruppe und A, BeG, so setzen wir

AB:=A·B:= {a·blaEA,bEB} (2.6) Satz. Sei K

c

und

xA:=x·A·- {x}·A.

G eine Untergruppe. Dann gilt:

(i) x· K = K genau dann, wenn

xE

K.

(ii) G zerfällt disjunkt in Klassen x . K, x E G, d.h. G

x'

~

xK ist xK n x' K

(iii) Ist K

= 0.

U xK,

und für

xEG

= ker(f), so ist f(x) = f(y) genau dann, wenn xK = yK.

Beweis. (i) ist xE K, so schreibt sich jedes k E K eindeutig als k = x· (x-1k) E xK, also K = xK. Ist xK = K, so insbesondere x· k = 1 für ein k E K, also x = k- 1 E K. (ii) x E G liegt in der Klasse xK. Ist xK n yK =1= 0, so folgt xk 1 = yk 2 , also x = yk2 k l l, daher xK = y(k 2 k 11)K = yK nach (i), also: Klassen sind entweder gleich oder disjunkt. (iii) mit (2.5): y-1x E K {==} y-lxK = K {==} xK = yK. 0 Die Ordnung IGI von G ist die Anzahl der Elemente von wenn IGI < 00 gilt.

G und G heißt endlich,

(2.7) Folgerung. Sei G eine endliche Gruppe. Die Ordnung jeder Untergruppe von

G teilt IGI.

§2. Homomorphismen

31

Beweis. Alle Klassen xK in (2.6) sind ebenso groß wie K, also wobei [G: K] die Anzahl der Klassen xK bezeichne.

IGI = IKI· [G : Kl, 0

Wir müssen hier abbrechen, um nicht das Ziel der Vorlesung aus den Augen zu verlieren. Man hat noch eine andere Sprechweise: Man nennt x und y kongruent mod K, x == y mod K, wenn gilt xk = y für ein k E K. Dies ist eine (2.8) Äquivalenzrelation. Das heißt, es gilt für alle x, y, z: (i) x == x, (ii) x == y

reflexiv; ===}

Y

== x,

(iii) x == y und y == z

symmetrisch; ===}

x

== Z,

transitiv.

Die Gruppe zerfällt in Äquivalenzklassen, das sind die Klassen zueinander Äquivalenter. Dies sind gerade die Klassen xK. In additiver Schreibweise hat man natürlich ker(f) = f- 1 {0}, f(x) = f(y) ~ x - Y E ker(f), f injektiv ~ ker(f) = 0, Klassen x + K. Beispiele. K = n· Z C Z = G. Die Klasse von a E Z ist [al = a + nZ, die Menge der Klassen, hier eine Gruppe, ist Z In. Der Kern des Homomorphismus f: Z ---7 Zln, a f---> [al, ist nZ. Betrachte zur Illustration den Homomorphismus f: 1R2

Der Kern ist

---7

IR,

(x,y)

K = {(O,y) I y E IR}

f--->

x.

~

IR.

Die Klassen sind die Geraden

r---------

:I 1R2 I I I I I

/1

------

-----------

K

(x, y)+K

j

1

0

/1

....

_--------

1

1

/ x

1

I I I

- - - - - ______ 1

32

Kapitel I. Vektorräume

(2.9) Definition. Ein Homomorphismus von Ringen mit 1, f : R ----* S, ist ein Homomorphismus der zugehörigen abelschen Gruppen (R, +) ----* (S, +), so dass gilt f{l) = 1 und f{x . y) = f(x) . f(y) für alle x, y E R. Der Kern von fist ker(f) = f-1{0}.

Natürlich ist ker(f) in diesem Fall eine Untergruppe von (R, +) und das eben über Gruppen Gesagte ist alles anwendbar, mehr noch:

(2.10) Notiz. ker(f) ist ein Ideal, das ist eine additive Untergruppe K c R, für die gilt: Ist k E K und xE R, so gilt



k E K,

k· xE K.

Beweis. f(x· k) = f(x) . f(k) = f(x) ·0= 0 und analog f(k· x) = O.

o

Körper sind spezielle Ringe, und ein Homomorphismus von Körpern ist ein Ringhomomorphismus.

(2.11) Satz. Sei K ein Körper, L ein Ring mit 1

i- 0

und f : K

----*

L ein Homo-

morphismus; dann ist f injektiv. Beweis. Wir müssen zeigen ker(f) = O. Nun, angenommen 0 i- a E ker(f), dann wäre auch a- 1 . a = 1 E ker(f), und 1 = f(l) = 0, ein Widerspruch. 0

§3

Vektorräume

Sei K in diesem Abschnitt ein fest gewählter Körper; die Elemente von K werden mit kleinen griechischen Buchstaben A, J-l, . .. bezeichnet.

(3.1) Definition. Ein Vektorraum V über K besteht aus einer abelschen Gruppe V mit Verknüpfung +, sowie einer Abbildung, der Operation von K auf V: KxV----*V,

(A,V)t-->A·V

=

AvEV,

so dass gilt: (i) Für alle A E Kund u, v E V ist A(U+V)

AU + AV.

(ii) Für alle A, J-l E K und v E V ist

Die Elemente von V heißen Vektoren, die von K Skalare. Eine lineare Abbildung cp : V ----* W von Vektorräumen ist ein Homomorphismus der abelschen Gruppen, so dass auch für alle A E K und v E V: cp(AV)

= A· cp(v).

§3. Vektorräume

33

Beispiele von Vektorräumen. lR n , wie besprochen, ist ein Vektorraum über R Allgemeiner und ganz analog ist

ein Vektorraum über K mit komponentenweiser Addition und

A(A1, ... ,An )

:=

(AA1, ... ,AAn ).

C ist ein Vektorraum über lR (und als solcher ist C = lR 2 ). Allgemeiner, wenn L ein Körper und K c L ein Unterkörper ist, ist Lein Vektorraum über K. Die Addition ist die der Körperstruktur von L und die Multiplikation mit Skalaren ist auch die in L. So sind z.B. lR und C Vektorräume über Q. Beispiele linearer Abbildungen. Kn --) K 1 = K, (Al' ... ' An) f---t Al; lR n --) lR, X f---t (X, a) mit festem a E lR n ; Kn --) K 2 n, (Al, ... , An) f---t (Al, ... , An, Al,.·., An). Beispiele aus der Analysis. Sei V der reelle Vektorraum der differenzierbaren und W der reelle Vektorraum der beliebigen Funktionen lR --) R Die Addition ist die übliche Addition von Funktionen, und ebenso für die Multiplikation mit Skalaren. Man hat lineare Abbildungen: D: V --) W, f f---t 1'; ao: V --) lR2 , f f---t (1(0),1'(0)); 1

J: o

1

V --) lR,

f

f---t

W --) lR n ,

f

f---t

I 0

f(t)dt.

(1(1), f(2), ... ,f(n)).

Auch die Menge der beliebig oft differenzierbaren Funktionen f lR --) lR, für welche gilt !" + f = 0, ist ein reeller Vektorraum, und z.B. sin, cos sind Elemente darin. Die Menge der konvergenten reellen Folgen (an)nEN bildet einen Vektorraum, sagen wir U, und die Abbildung

U --) lR,

(an)

f---t

lim (an)

n->oo

ist linear. Diese Beispiele lehren, dass man sich an die abstrakte Definition doch halten muss und nicht glauben darf, Vektoren seien allemal n- Thpel. Die Gruppenaxiome haben wir uns schon angeeignet, und bemerken noch:

(3.2)0·v=0,

(-l)·v=-v.

Kapitel 1. Vektorräume

34

Beweis. o· v = (0 + 0) . v = 0 . v + 0 . v, also o· v = o. 0= O· v = (1 + (-1)) . v = v + (-1) . v, also (-1) . v = -v.

o

(3.3) Notiz. Die Vektorräume und linearen Abbildungen über K bilden eine Kategorie, also: sind U, V, W Vektorräume über K, so ist id: V

linear, und sind



V und'lj; : V

---->

---->

V

W linear, so auch 'Ij;

0



W.

Eine bijektive lineare Abbildung von Vektorräumen

W ist ein Isomorphismus von Vektorräumen. Existiert er, so heißen die Räume isomorph (V ~ W). In diesem Fall ist V auch linear, wie bei Gruppen.

Beweis. Aus

'Pi

'Pi-I =

V

Vi+1

--+ ...

ker 'Pi. Eine an jeder Stelle exakte

---> 'Pli

V"

--+

0

heißt kurze exakte Folge. Letzteres bedeutet: 'P' ist injektiv, 'Pli surjektiv und im 'P' = ker 'Pli. Fassen wir 'P' als Inklusion des Unterraumes V' auf, so ist V" der Quotientenraum V" = VIV' nach der universellen Eigenschaft (3.8) des Kerns. Weil 'P' : V' --+ im('P') = ker 'Pli isomorph ist, folgt aus (5.3) für 'Pli: (5.5)

dirn V'

+ dirn V" =

dirn V.

Anders gedeutet: Sei V' C V und V" = VIV', so hat man dirn V'

+ dirn VIV' =

dirn V.

46

KapitelLVektorräume

(5.6) Folgerung. Seien U, V Unterräume von W. Dann gilt: dim(U n V) + dim(U + V) = dirn U + dirn V. Beweis. Man hat eine kurze exakte Sequenz

(u, v) f-+ U + v o----.Unv----,UEBV ----.U+V----.O

d

f-+

(d, -d)

Hier bilden wir in der Mitte U EB V abstrakt, als Raum von Paaren, nicht als Unterraum von W, wo ja im Allgemeinen U n V i- O. In der Tat: (u, v) f-+ 0 {==} U + v = 0 {==} v = -u {==} (u, v) = (u, -u) kommt aus U n V. Die anderen Relationen sind trivial. Nun wende (5.1), (5.5) an. D

Alle diese Dimensionsformeln ähneln Anzahlformeln für endliche Mengen wie IMnNI+IMUNI

= IMI+INI,

und das ist kein Wunder: das tun die endlichen Basen. Folgerung. In (5.6) sei dim(U + V) = dirn U + dirn V, dann ist die Summe direkt, weil dim(Un V) = O. Sei dim(U + V) = dirn U, dann ist V C U, weil dim(Un V) = dim(V), also U n V = V.

(5.7) Sprechweisen. Sei V ein n-dimensionaler Vektorraum über K. Ein I-dimensionaler Unterraum von V heißt Gerade, ein 2-dimensionaler Ebene, ein (n - 1)dimensionaler Hyperebene. Ist U eine Gerade, Ebene, Hyperebene, Unterraum, so heißt v + U affine Gerade, affine Ebene, affine Hyperebene, affiner Unterraum durch v. Die Dimension eines affinen Raumes v + U ist die des zugehörigen Vektorraumes U. Zwei affine Räume heißen parallel, wenn die zugehörigen Vektorräume gleich sind: (v + U) 11 (v' + U') {==} U = U'. Der Durchschnitt zweier affiner Räume ist entweder leer oder es gibt ein v im Durchschnitt; dann lassen sie sich schreiben als v + U, v + U' und ihr Durchschnitt ist (v + U) n (v + U') = v + (U n U') mit zugehörigem Vektorraum U n U', denn v+u = v+u'

===}

u = u'EunU'.

47

§6. Aufgaben

§6

Aufgaben

1. Auf Z In führe außer der erklärten Addition noch eine Multiplikation ein durch [al . [b] := [a· b].

(i) Ist dies wohldefiniert? (ii) Gib die Additions- und Multiplikationstabellen von Z 14 und Z 15 an.

(iii) Ist Z 14 ein Körper? Ist Z 15 ein Körper? 2. Prüfe, ob folgende Mengen G mit Verknüpfungen

* Gruppen sind:

\!X

3 +y3. x*y= Hinweis: Negative Zahlen haben eine wohlbestimmte dritte Wurzel, auch wenn sie an der Schule nicht zugelassen ist.

(i) G= IR,

(ii) G

= IR,

x*y = 3x + 4y.

(iii) G

=

{x E IR

(iv) G

=

IR 3 ,

I lxi < I}, x*y =

x*y

=X

X

t:x~.

y.

(v) G = Menge der Permutationen a E 8(8) mit a(n) == n mod 3, mit der Hintereinanderausführung von Permutationen als Verknüpfung *. (vi) G = Z In x Z 12 mit Verknüpfung

([a], [b])

* ([c], [d]) = ([a + (-l)b c],

Ist dies überhaupt wohldefiniert? (vii) G

[b + d]) .

= IR x IR+, (t, a) * (s, b) = (t + as, ab). Ist

3. Sei G eine Gruppe mit Einselement 1, so dass a 2 in einer Zeile, dass G abelsch ist.

x

* Y = Y * x für x, y E G?

= 1 für alle a

E G. Zeige

4. Definiere auf C 2 = C X C eine Addition und Multiplikation durch: (al,bd+(a2,b2) = (al+a2,b 1 +b2), (al, b1 ) . (a2, b2) = (ala2 - b1 b2, a 1 b2 + b1 a2). Wird C 2 mit diesen Verknüpfungen ein Körper? 5. Stelle die Gruppentafel der symmetrischen Gruppe 8(3) auf und bestimme alle Untergruppen von 8(3). 6. Sei G eine endliche Gruppe gerader Ordnung. Zeige, dass es ein a i=- e in G gibt mit a 2 = e. 7. Zeige, dass die symmetrische Gruppe 8(3) nicht abelsch ist. Wie kann man dann leicht folgern, dass auch 8(n) für jedes n 2:: 3 nicht abelsch ist? 8. Sei Q( J2) die Menge der reellen Zahlen a + bJ2 mit a, b E Q. Zeige: Die Addition und Multiplikation reeller Zahlen definiert Verknüpfungen + und . auf Q( J2), und (Q( J2), +, .) ist ein Körper.

48

KapitelLVektorräume 9. Sei G eine Gruppe, so dass für alle a, bEG gilt aba hat G?

= bab. Wieviele Elemente

10. Die Gruppe G habe die verschiedenen Elemente 1, a, b. Stelle ihre Multiplikationstabelle auf. 11. Sei G eine Gruppe und a, bEG. Sei a· b = b· a. Gilt dann a . b- 1 = b- l . a? 12. Zeige: In einer endlichen, abelschen Gruppe, die ungerade viele Elemente hat, ist jedes Element ein Quadrat. Hinweis: Meditiere über das Aussehen der Multiplikationstabelle.

13. Prüfe, ob folgende Abbildungen Homomorphismen von Gruppen sind und bestimme gegebenenfalls den Kern:

(i) f: 5(n)

--+

5(2n)

f((J")(k) = {(J"(k) n+(J"(k-n) (ii) Sei a E IR n ein fester Vektor und f: IR n (iii) f: IR 2

--+

IR, (x, y)

(iv) f: (v) f: 5(3)

IR, (x, y) --+ 5(3), (J"

(vi) f: 5(3)

--+

IR 2 --+

5(3),

f---* X . f---*

X

--+

für

k S. n

für

k>n.

IR, f(x)

= (x, a).

y.

+ y.

f---* (J"-l.

(J" f---* (J"2

:=

(J" 0 (J".

Sei G irgendeine Gruppe und 9 E G ein festes Element: (vii) f: G

--+

(viii) f: G

--+

G, x G, x

(ix) f: G--+G,

f---*

9 . X.

f---*

gxg- 1 .

Xf---*X 2 •

14. Sei G eine Gruppe und 9 E G. Definiere

11,2

H,

zwischen den abelschen Gruppen G.i , H i , i = 1,2,3, mögen die folgenden Eigenschaften haben: (i) gl,h 1 sind injektiv, g'2,h'2 sind surjektiv. (ii) Imgl

=

= Kerh 2 .

Kerg2 und Imh l

(iii) hloh =hogl undh 2 o h=g:log2. Zeige die beiden Aussagen: Sind Sind

11, h 11, h

h injektiv. so ist 12 surjektiv.

injektiv, so ist surjektiv,

18. Welche der folgenden Abbildungen von Vektorräumen über K sind linear?

Gegebenenfalls bestimme den Kern! V + Vo für einen festen Vektor Vo E

(i) ep: Kn

--->

Kn, v

(ii) ep: C"

--->

C", (Al"" ,An)

(iii) ep: &.3

--->

&., v

"

f--+

f--+

(v x

f--+

(v, v).

--->

&., v

(v) ep: &.n

--->

&.n,

x

(vi) ep: &."

--->

&.n,

X f--+

(iv) ep: &.'

f--+

f--+

VO,Vl)

(ii)

(~~)

(~1 ~

Xl

X4

(~~) X:, X4

f--+

1 : &.4

X3

Xl f--+

+ X2 + XI 2X4

(

3X4

4X1

VO,Vl

(x, a) . x, für festes a E

;l)

.Tl

für feste

E

=

&. und K

&.:'.

(x,a)a für festes a ERn.

19. Welche der folgenden Abbildungen

(i)

(5. 1, ... ,5. n ), für K

+ 5X2 + X2 + X4

)

--->

Kn.

&.n.

&.4 sind linear:

=

ce.

Kapitel 1. Vektorräume

50

Bestimme gegebenenfalls eine Basis von Ker(f) und Im(f). 20. Sei K ein Körper und 'P : Kn ~ K l = K eine lineare Abbildung. Zeige, dass es Skalare al, ... ,an E K gibt, so dass für alle x = (Xl, ... ,X n ) E Kn gilt: n

'P(x)

= LaI/xv. v=l

21. Seien Ul , U2 Unterräume von V. Für jede lineare Abbildung 'P : V gelte: 'P I Ul = 'P I U2 · Gilt Ul = U2? 22. Gib eine lineare Abbildung 'P : Kn ~ Kn an, so dass 'P n

~

W

= 0, 'P n - l -I- o.

23. Seien 'P, 'ljJ : V ~ W zwei lineare Abbildungen zwischen endlich-dimensionalen Vektorräumen mit gleichem Kern und gleichem Bild. Gilt 'P = 'ljJ? 24. Sei V ein Vektorraum, 'P: V ~ V linear und 'P k Zeige:

= 'P 0 · · · 0 'P (k Faktoren).

(i) Ker(cp-i) c Ker('Pj+l) für jE No.

(ii) Ist Ker('P k )

= Ker('Pk+l), so ist Ker('P j ) = Ker(cp-i+l) für alle j ~ k.

25. Sei V ein rn-dimensionaler Unterraum von K n , K ein Körper. Zeige, dass es natürliche Zahlen VI, ... , V m aus {I, 2, ... , n} gibt, so dass die lineare Abbildung

ein Isomorphismus ist. 26. Sei V ein Vektorraum über Kund A tervektorraum U. Zeige, dass W

c V ein affiner Unterraum zum Un-

= {A·alaEA, AEK}UU

ein Unterraum von V ist. 27. Sei V ein Vektorraum über K und seien U l , U2 Untervektorräume von V. Zeige: Ist Ul U U2 = V, so ist U l = V oder U2 = V. 28. Seien Ul , U2 , V Unterräume eines Vektorraums W. Es sei Ul Gilt dann U l = U2 ? 29. Seien U, V, W Unterräume eine Vektorraums L. Gilt U n (V + W) = (U n V) + (U n W)?

+V

=

U2

+ V.

51

§6. Aufgaben 30. Seien U, V Unterräume eines Vektorraums W. Zeige (U + V)/(U n V) ~ U/(U n V) EB V/(U n V). 31. Betrachte Vektorräume und lineare Abbildungen UcV ~ V/U

1

1~ U' c

v'

--,+ K

v' /U '

wobei "', ",' die kanonischen Abbildungen sind. Zeige, dass genau dann eine lineare Abbildung r:p : V /U --> V' /U' mit ",' 0

W/U,

hat. Damit ist V/U morphismus

c

v+Uf----;v+U,

W/U. Zeige, dass man einen kanonischen IsoW/V

-->

(W/U)/(V/U)

hat. 33. Gib in K3 einen komplementären Unterraum zu dem Unterraum {(x,x,x) x E K} an (z.B. durch Angabe einer Basis).

I

34. Sei K ein Körper und für jedes Q E K sei: UOI := {(XI,X2,X3) E K 3 I Xl + X2 + X3 = Q}. Zeige: Genau dann ist UOI ein Untervektorraum von K 3 , wenn Q = 0 gilt. 35. Seien U I , U2 , VI, V2 Unterräume eines Vektorraums W, und es sei U I n U2 VI n V2 , U I + U2 = VI + V2 · Gilt U I = VI, U2 = V2 ?

=

36. U I , U2 seien Untervektorräume eines Vektorraumes V.

(a) Zeige, dass durch Q: U I --> (U I + U2 )/U2 , Q(UI):= UI +U2 , UI E U I , eine wohldefinierte lineare Abbildung gegeben wird, welche surjektiv ist und den Kern UI n U2 besitzt. (b) Mit Hilfe von

Q

bestimme einen Vektorraum-Isomorphismus

Kapitel I. Vektorräume

52

37. Sei V ein Vektorraum über K und seien VI,"" v n linear unabhängige Vektoren in V. Sei V = CYIVI + ... + CYnV n mit CYi E K für i = 1, ... , n. Zeige: Genau dann sind VI - V, ... , V n - V linear abhängig, wenn CYI + ... + CY n = 1. 38. Sei V ein Vektorraum, ..(v).

o

60

Kapitel H. Matrizenrechnung

Wir nennen also End(V) den Endomorphismenring oder die Endomorphismenalgebra von V. Sie enthält die Menge der Automorphismen, das sind die linearen Isomorphismen V --t V, die wir mit Aut(V)

=

AutK(V)

bezeichnen, mit der Komposition als Verknüpfung.

(2.5) Satz. AutK(V) ist eine Gruppe. Sie ist für dirn V> 1 nicht abelsch (siehe (3.8)). Für V -=I- 0 liegt K* im Zentrum von AutK(V). Das Zentrum einer Gruppe G ist die Untergruppe

z

= {z

E G

I zg

= gz

für alle

gE G}.

Beweis. Aut(V) ist eine Untergruppe der Permutationsgruppe S(V) der Menge V, denn wenn rp, 'lj; E Aut(V), so ist auch rp'lj;-l E Aut(V), und id E Aut(V). 0 Dies ist die Gruppe der sämtlichen Symmetrien, im Sinne der Theorie der Vektorräume, des Raumes V, und ein überaus wichtiges Objekt. Ein Spezialfall von HomK(V, W), den wir eigens studieren müssen, entsteht, wenn man W = K wählt. (2.6) Definition. Der Vektorraum V* := HomK(V, K) heißt der Dualraum von V. Eine lineare Abbildung rp: U --t V induziert die duale Abbildung rp* : V* --t U*, a f---+ a 0 rp.

'P

U

V

'P*(~;\ /ev* K

(2.7) Eigenschaften der dualen Abbildung.

(i) rp* ist eine lineare Abbildung. (ii) Die Zuordnung V f---+ V*, rp f---+ rp* ist ein kontravarianter Funktor, d.h. (id v )* = id v *, (rp 0 'lj;)* = 'lj;* 0 rp*. (iii) Die Zuordnung rp

rp* ist linear.

f---+

Beweis. Sei A, p E Kund a, ß E V*. (i) rp*(Aa

(2.3).

(ii) id*(a)

+ pß)

=

a

id

=

0

(Aa

+ pß) 0

rp

= Aa 0 rp + pß 0 rp = Arp*(a) + prp*(ß), siehe

= a und (rp 0 'lj;)*(a) = a 0 rp 0 'lj; = rp*(a) o'lj; = 'lj;*(rp*(a)).

(iii) (Arp + p'lj;)*(a) = a

0

(Arp

+ p'lj;) = Aa 0 rp + pa 0 'lj;

= Arp*(a)

+ p'lj;*(a).

0

§2. Lineare Abbildungen

61

Folgerung. Ist 'jJ : V ---7 Wein Isomorphismus, so ist auch die duale Abbildung W* ---7 V* ein Isomorphismus mit ('jJ-I)* = ('jJ*)-I.

'jJ* :

Beweis. 'jJ 0 'jJ-I = id w ===} id w ' chend 'jJ* 0 ('jJ-I)* = id v •.

=

=

id~v

('jJ 0 'jJ-I)*

=

('jJ-I)* 0 'jJ*

und entspre0

Das machen immer die Funktorgleichungen. Man hat einen kanonischen Isomorphismus:

(2.8)

K

K*

~

(hier der duale Raum von K, nicht die multiplikative Gruppe), welcher A E K auf die lineare Abbildung x f--+ A . x aus K* abbildet. Die Umkehrabbildung bildet 0' E K* auf 0'(1) E K ab. Wir wollen entsprechend im Allgemeinen zwischen K und K* nicht unterscheiden. Eine Abbildung ist linear, genau wenn ihre Komponenten

j = 1, ... , n, linear sind, also

'jJj,

n

(2.9)

ffi w V*,

Hom(V,K")

'jJ

f--+

( 'jJI,···, 'jJn ) .

j=l

Man hat eine kanonische lineare Abbildung.

(2.10)

L: V

---7

V**,

L(V)(O')

=

O'(v).

Wir werden sehen, dass dies ein Isomorphismus ist, wenn dirn V < 00. In diesem Fall ist also V = V**, identifiziert durch L. Physiker nennen Vektoren aus V kontravariant und Vektoren aus V* kovariant; letztere nennt man auch Formen oder Linearformen. Hier ist wohl eine Bemerkung über das Wort "kanonisch" am Platz, das uns schon mehrfach begegnet ist. Vielleicht erwartet mancher eine Definition. Doch diese Erwartung ist nicht berechtigt: Das Wort ist zunächst einfach ein Name. Es mag ja viele Abbildungen V ---7 V** geben, aber diese bestimmte in (2.10) angegebene Abbildung heißt die kanonische. Freilich vergibt man diesen Namen nicht beliebig. Eine Abbildung, die man kanonisch nennen will, muss eindeutig und ohne zusätzlich erforderliche Auswahlen bestimmt sein, und sie muss in einer allgemeinen Situation immer gegeben sein. Nicht nur etwa für einen bestimmten, sondern für jeden Vektorraum V hat man die lineare Abbildung V ---7 V** in (2.10). Im übrigen sollte etwas kanonisches nicht trivial und inhaltlos und nicht willkürlich gewählt sein. Aber das alles sind nicht eigentlich mathematische Bedingungen, sondern eher Stil-Erfordernisse für die Vergabe des Namens "kanonisch".

Kapitel 11. Matrizenrechnung

62

Ist v E V und a E V*, so schreibt man (a,v):= a(v) E K. Dieses Produkt ist bilinear:

(2.11)

(Aa + J1ß, v) (a, AV + J1w)

A(a, v) A(a, v)

+ J1(ß, v), + J1(a, w).

Das macht ganz sinnfällig, wie a E V* auf V wirkt:

v f--t (a, v),

a: V ---; K, und wie v E V auf a wirkt, nämlich

a

v: V* ---; K,

f--t

(a, v).

Ist F C V* ein Unterraum, so ist der Orthogonalraum (2.12)

F.l:={v E VI(a,v)=O für alle a E F}=

n

ker(a) C V

cxEF

ein Unterraum von V; ist z.B. 'P = ('PI, ... , 'Pn) : V ---; Kn linear, so ist

n n

(2.13)

ker( 'P) =

ker( 'Pj) = L('PI, ... ,'Pn).l.

j=1

Zu einem Unterraum U C V kann man entsprechend den Orthogonalraum U.l = {aEV* I (a,u) = 0

füralle

UEU}

bilden. Beispiel. Sei V = COO( IR) der Raum der beliebig oft differenzierbaren Funktionen IR ---; IR.. Es gibt viele interessante Elemente von V*. Ist d: IR ---; IR stetig, so ist die Form b

V---;IR,

ff--t

jf(t).d(t)dt a

in V*. Aber es gibt andere Elemente (Distributionen), die nicht so entstehen. Sei z.B. a E IR, dann hat man die "Dirac-Funktion"

ba

:

V ---; IR,

f

f--t

f(a),

oder ihre Ableitungen f f--t - f'(a), f"(a), .... In Anführungsstriche gehört eigentlich das Wort "Funktion", denn Physiker tun gern, als entstünde auch diese Form wie oben durch eine sehr seltsame Funktion d, die überall verschwindet außer an der Stelle a, dort 00 ist und das Integral 1 hat. Wenn das auch so nicht haltbar ist, so hilft diese Erklärung doch oft zur rechten Anschauung.

§3. Matrizen

§3

63

Matrizen

Basen vermitteln den Übergang von einem n-dimensionalen Vektorraum im Allgemeinen, zu dem ganz bestimmten und konkreten Raum Kn der n- Tupel mit Komponenten in K: Nun haben wir auf der abstrakten Seite: Hom(V, W),

End(V) ,

Aut(V) ,

V* ,

F..L,

i:

V ...... V**.

Und auf der konkreten Seite? Das erkläre ich jetzt. Sei ein Körper K fest gegeben, und sei M(k x n,K)

M(k x n)

der Vektorraum der (k x n)-Matrizen

A

mit Koeffizienten in K, mit komponentenweiser Operation

Also M(k x n) = Knok als Vektorraum, mit neuer Anordnung der Komponenten. (3.1) Das Matrizenprodukt M(m x n) x M(n x k) ...... M(m x k) ordnet dem Paar von Matrizen A = (aij), B = (b jl ) die Matrix A· B = C = (Cil) zu, mit n

Cil

L

aij .

bjl .

j=l

A

i

B

ail···

Also: Cil berechnet man wie ein Standard-Skalarprodukt der i-ten Zeile von A mit der l-ten Spalte von B.

64

Kapitel H. Matrizenrechnung

Jetzt (und fortan) schreiben wir Vektoren aus Kn als Spalten, also demnach Kn M(n x 1, K). Setzt man k = 1, so erhält man das Produkt (3.2)

M(m x n) x K"

-->

Km,

(A,x)

f--7



X

=

=

Ax.

Also: Ax hat die i-te Komponente

L aij:rj,

(AX)i

j

das Standard-Skalarprodukt der i-ten Zeile von A mit x. Bezeichnet wieder ej den j-ten Standard-Basisvektor, so stellt man insbesondere fest, dass Aej die j-te Spalte der Matrix ist. (3.3) Merke. In den Spalten von A stehen die Bilder der Standard-Basisvektoren bei der Abbildung x f--7 A . x.

Das muss man auswendig lernen! Das also ist das Konkrete, und jetzt wollen wir sehen, wie es mit dem Abstrakten zusammenhängt. Eine Basis soll vermitteln, und ich erinnere noch einmal an folgenden Grundsatz. Die linearen Abbildungen if! : Kn --> V entsprechen eindeutig den n-Tupeln von Vektoren aus V, durch

( VI, ... , V n )

f--7

(if!:

x

f--7

Lxv j

j ).

j

Insbesondere entsprechen so die Isomorphismen

if! :

Kn

-->

V den Basen von V.

Wollen wir jetzt eine lineare Abbildung a : V --> W endlich-dimensionaler Vektorräume explizit durch Basen beschreiben, so wählen wir Basen, also Isomorphismen

V

(3.4)

~

n

~11 KTI

W

1~2 7

Km ,

A

=

if!2 0

a

-1

0 if! l

,

und es kommt darauf an, die lineare Abbildung A : K" --> Km explizit anzugeben, die sagt, wie die Komponenten bezüglich der gewählten Basen transformiert werden.

§3. Matrizen

65

(3.5) Satz. (i) Man hat einen kanonischen Isomorphismus M(m x n,K)

~

HomK(K n , Km),

der einer (m x n)-Matrix A die lineare Abbildung x I--t A . x zuordnet. Wir bezeichnen fortan eine lineare Abbildung Kn --> Km durch ihre Matrix und lesen den Isomorphismus als Gleichung. (ii) Der Zusammensetzung von linearen Abbildungen entspricht unter dem Isomorphismus das Produkt der zugehörigen Matrizen: ~

KP

I--t

B(Ax) = (BA)x.

Beweis. (i) Eine lineare Abbildung 'l/J : Kn --> Km, das lehrt der Grundsatz, ist durch die Bilder der Standard-Basisvektoren festgelegt:

Diese, also die aij, kann man beliebig wählen. Dann ist

= 'l/J(~.:::>jej) = LXj'l/J(ej) = LXj Laije~

'l/J(x)

j

j

= L(LaijXj)e~

=

j

A·x,

mit

A = (aij).

j

(ii) Wie das Diagramm zeigt, ist die Assoziativität des Matrizenprodukts nachzurechnen. Sei A = (aij), B = (bki)' BA = G = (Ckj), dann ist

j

i,j

j

j

Was wir über lineare Abbildungen wissen, überträgt sich jetzt auf Matrizen, ohne dass man noch mit Indices wirtschaften müsste, und umgekehrt kann man mit Matrizen über lineare Abbildungen argumentieren. Zum Beispiel gilt nach (2.3) für Matrizen, wenn die entsprechenden Summen und Produkte definiert sind (die Summen nur bei gleicher Zeilen- und Spaltenzahl!):

+ MB)· G

A . AG + M . BG,

A· (AB + MG) (AB)G

A· AB+ M· AG A(BG).

(AA

(3.6)

(3.7) Satz. Sei n > O. Dann ist EndK(Kn) = M(n x n, K) eine Algebra mit 1 über K, und AutK(Kn) = GL(n, K) ist eine Gruppe, die Gruppe der invertierbaren (n x n)-Matrizen.

66

Kapitel Ir. Matrizenrechnung

Auch wollen wir jetzt nachtragen, was wir schon angekündigt haben: (3.8) Bemerkung. Ist dirn V

~

2, so sind End V und Aut V nicht kommutativ.

Beweis. Für n = 2:

Für n > 2 ist K n = K 2 EB Kn-2 und man betrachtet lineare Automorphismen der Form (x, y) f-+ (Ax, y). 0 Verwandelt man eine lineare Abbildung Q : V ~ W durch Einführen von Basen nach (3.4) in A : Kn ~ Km, so nennen wir A die Matrix von Q bezüglich der Basen oder auch Q in Koordinaten. Man findet A nach dem Merksatz (3.3), in Formeln:

(3.9)

J

Zur Identität von V gehört für jede Basis die Matrix

(weille Stellen ffind 0).

(3.10) Definition. Der Rang einer linaren Abbildung Q ist Rg(Q) = dirn im(Q). Natürlich ist Rg(Q) =Rang(A) = Dimension des von den Spalten von A aufgespannten Vektorraums, wenn A die Matrix von Q für irgendwelche Basen ist. (3.11) Rangsatz. Sei Q : V ~ Weine lineare Abbildung vom Rang k zwischen endlich-dimensionalen Vektorräumen. Dann kann man Basen von V und W so wählen, dass Q in Koordinaten durch 1

(weiße Stellen sind 0)

1

A

o gegeben ist. Mit anderen Worten: Man hat Isomorphismen 'P: V

9:!

-----+

,

UEBV,

'ljJ: W

~

-----+

I

UEBW,

§3. Matrizen

67

so dass folgendes Diagramm kommutativ ist:

v

C>

)W

+ +

UEBV' ~ UEBW', (u,v')

f-+

d.h.

Ci

0

'P

= 'ljJ 0

a.

(u,O)

Beweis. Sei V' = ker(a) und U ein Komplement in V, dann ist V = U EB V'. Das definiert den Isomorphismus 'P. Sei W' ein Komplement von im(a) in W, dann ist W = im(a) EB W' und a induziert einen Isomorphismus U ----., im(a). Definiere damit den Isomorphismus 'ljJ: W = im(a)EBW' .::.----., UEBW' durch Für v = u

+ v' aus V

(x, w')

f-+

(aIU)-lx

+ w'.

mit u E U und v' E V' ist dann

'ljJa(u+v') = 'ljJa(u) = u. Wählt man jetzt Basen von U, V' und W', und setzt sie zu Basen von V = U EB V' und W = U EB W' zusammen, so ergibt sich die behauptete Darstellung in Koordinaten. 0 Wir wollen dasselbe nochmals direkt mit Basen sagen: Wähle eine Basis (VI, ... ,vn ) von V, so dass (Vk+1, ... , v n ) eine Basis von ker(a) ist. Wähle eine Basis (WI, ... , w m ) von W, so dass

Dann ist a(vj) = Wj für j ~ kund a(vj) = 0 für j > k. Es ist

Nun zum Dualraum. Sei (VI, ... , vn ) eine Basis von V. Die Elemente vi, ... V* seien durch vT (Vj) = bij, Kroneckersymbol,

,V~ E

gegeben, also mit anderen Worten: v:C2:.AjVj) := Ai. j

(3.12) Satz. Das Tupel (vi, ... , v~) ist eine Basis von V* und heißt die zu (Vj, ... ,vn ) duale Basis.

68

Kapitel H. Matrizenrechnung

Beweis. Das Tupel ist linear unabhängig, denn ist n

n

L

Ai V; = 0,

so

L

i=1

AiV;(Vj) = Aj =

i=1

°

für alle j. Es ist erzeugend, denn ist 0: : V ~ K linear und O:(Vi) = Ai, so ist 0: = 2:i AiV;, weil beide Seiten auf jedem Basiselement Vj den gleichen Wert Aj liefern. 0 (3.13) Folgerung. Ist dirn V < 00, so ist V ~ V* und die kanonische Abbildung V ~ V** ist ein Isomorphismus, denn die Basis (VI, ... , vn ) ist dual zu (vr, ... ,v~). 0

L :

Beachte, dass der Isomorphismus V ~ V* unkanonisch ist: Er hängt von der jeweiligen Wahl einer Basis ab. In einer abstrakten Situation kann man nicht einfach Vektoren in V als Formen (wie man es auch nennt) in V* auffassen. Betrachte eine lineare Abbildung (Wl,"" W m ) von W. Sei

0: :

V

W in Basen (VI, ... , V n ) von V und

~

(i) Anwenden von w k ergibt: (o:*w;')(v s ) := wk(o:(v s )) =

2: ais w k(Wi)

A

Matrix von

= aks =

2: a kjvj(V s ), j

i

also, wenn wir im Ergebnis k durch i ersetzen, (ii)

0:.

o:*(w7) = Laijvj j

Und dazu gehört die Matrix? Nicht (aij), denn wenn man (i) und (ii) genau inspiziert, sieht man, dass man nicht über den gleichen Index summiert! In der Matrix muss der Index, über den man summiert, vorne stehen: 0: bezüglich Basen die Matrix A = (aij), so gehört zur dualen Abbildung 0:* bezüglich der dualen Basen die transponierte Matrix tA = (aji), die aus A durch Spiegeln an der Hauptdiagonalen hervorgeht, d.h. die i-te Zeile von A ist die i-te Spalte von tAo 0

(3.14) Satz. Hat

Aus den Funktoreigenschaften (2.7) ergibt sich also konkret t(A . B) = tB. tAo

(3.15) Folgerung. Rg(o:)

=

Rg(o:*), Zeilenrang

=

Spaltenrang.

Das heißt: Der von den Zeilen einer Matrix aufgespannte Raum hat gleiche Dimension wie der von den Spalten aufgespannte Raum.

69

§3. Matrizen

Beweis. Die erste Formel hat nichts mit Basen zu tun, wir dürfen also die Basen von V, W passend wählen, und wählen sie nach dem Rangsatz. Für die dortige Matrix A ist offenbar Rg(A) = Rg(tA), also Rg(a) = Rg(A) = Rg(tA)

Rg(a*).

o

Das Weitere folgt aus dieser Formel und (3.14).

Wir wissen, dass der Zeilenrang einer Matrix unter Zeilenumformungen (1.2) invariant bleibt, und analog bleibt der Spaltenrang unter entsprechenden Spaltenumformungen invariant. Weil aber beides gleich ist, bleibt der Rang einer Matrix unter Zeilen- und Spaltenumformungen, mit denen man beliebig abwechseln darf, invariant. Das kann die Rangberechnung sehr vereinfachen. Während die Spalten der Matrix A E M(m x n) Elemente von Km sind, die Bilder der Basisvektoren, kann man die Zeilen als Elemente von Km sehen. Die i-te Zeile definiert ja die Abbildung

K n -> K,

x

f--->

·~.::>ijXj E K. j

Eine Linearform a : Kn -> K ist eben durch eine (1 x n)-Matrix, eine Zeile, gegeben, und eine lineare Abbildung Kn -> Km durch m Zeilen, die Matrix. Die Koeffizienten der Zeile sind gerade die Koeffizienten der Linearform bezüglich der dualen Basis ei, ... ,e~. Bezeichnen wir die i-te Zeile durch ai : Kn -> K, so ist m

ker(A) =

nker(ai) = L(al, ... ,am)~, i=1

Rg(A)

Die Formel dirn im(A)

+ dirn

= dirn L(al, ... , a m).

ker(A)

= n in I, (5.3) sagt also

(3.16) Ist V irgendein Vektorraum der Dimension n und F c V* von al, ... ,am erzeugt, so ist ja V ~ Kn, wir dürfen die Formel anwenden, und sie sagt (3.17)

dirn F

+ dirn

F~

= dirn

V.

Eine Basis, also ein Isomorphismus V ~ Kn, legt zugleich einen Isomorphismus V* ~ K n fest, durch die duale Basis. Insbesondere hat man die Standardbasis von Kn und damit einen ausgezeichneten Isomorphismus (3.18)

Kapitel H. Matrizenrechnung

70

Dieser Isomorphismus bildet Ci auf ci ab, und ci beschreiben wir in Koordinaten durch die Transponierte von ei, den i-ten Standard-Zeilenbasisvektor. Daher ist (3.18), wie notiert, allgemein durch Transposition gegeben. Wir können jetzt, um uns dem üblichen Satzbild besser anzupassen, gelegentlich auch Spalten durch t(XI"" ,xn ) notieren. Schließlich, wenn man irgend etwas, und insbesondere Abbildungen, bezüglich Basen beschreibt, muss man auch sagen: Was geschieht, wenn man die Basen wechselt? (3.19) Basistransformation. Angenommen, man hat zwei Basen von V und nach I, (4.3) zugehörige Isomorphismen 'PI und 'P2: EKn T Kn

"~\--/i" Vj E

V

3Wi

Der Isomorphismus T := 'P2 I 0 'PI heißt Basistransformation zwischen 'PI bzw. (VI, ... , Vn ) und 'P2 bzw. (WI, ... , w n ). Angenommen,

eine solche Darstellung muss es ja geben, dann ist

Also: nach dem Merksatz ist die Basistransformation T durch die Matrix (tij) gegeben. Nach Einführen von Basen wird nun eine lineare Abbildung durch eine Matrix, also eine lineare Abbildung A : Kn ~ Km, beschrieben. Transformationen der Basen beider Räume wie oben sind durch Isomorphismen Tl, T 2 gegeben:

Kn und sie überführen A, die Matrix für die ursprünglichen Basen, in

die Matrix für die neuen Basen.

§4. Lineare Gleichungssysteme

71

Welche Eigenschaften von A bleiben unter solchen beidseitigen Transformationen invariant und sind somit unabhängig von der Wahl von Basen? Nur der Rang das sagt der Rangsatz. Er gibt ja, bei Wahl geeigneter Basen, eine Gestalt von A an, die nur vom Rang abhängt. Schwieriger wird es, wenn man Endomorphismen Cl! : V ~ V betrachtet, und natürlich nur eine Basis wählt, vorn und hinten dieselbe. Das wird das wichtigste Thema der Vorlesung.

§4

Lineare Gleichungssysteme

Hier wollen wir wieder auf die expliziten Rechenverfahren des ersten Paragraphen dieses Kapitels zurückkommen. Eine (k x k)- Matrix (quadratische Matrix) heißt regulär oder invertierbar, wenn sie den Rang k hat, also als lineare Abbildung ein Isomorphismus ist. (4.1) Bemerkung. Die (m x n)-Matrix A = (aij) hat den Rang wenn es

~

k genau dann,

gibt, so dass die (k x k)-Matrix

A

=

(aij),

i E {i1,"" id,

jE {j1"" ,jd

regulär ist. Der Rang A ist also das maximale k, so dass aus A durch Streichen von Zeilen und Spalten eine reguläre (k x k)-Untermatrix A entsteht. Beweis. Hat A den Rang k, also unabhängige Spalten, so sind erst recht die Spalten zum Index j1,'" ,jk von A unabhängig, also Rg (A) ~ k. Ist Rg (A) ~ k, so wähle jl,'" ,jk, so dass die entsprechenden Spalten unabhängig sind, streiche die übrigen Spalten und wähle i 1 , ... , ik, so dass bei der verbliebenen Matrix die entsprechenden Zeilen unabhängig sind. 0 (4.2) Auswahl einer Basis. Schreibe VI, ... , V n E Km als Spalten einer Matrix A und bringe diese durch Zeilenumformungen in Zeilenstufenform: j3 ...

jk

0 ?

S

0 0 1

Kapitel H. Matrizenrechnung

72

Die Spalten Nr. jl, ... ,jk sind in S linear unabhängig; die Matrix S dieser Spalten hat also den Rang k und geht aus der Matrix der entsprechenden Spalten von A durch Zeilenumformung hervor, also bilden die Vektoren (Vj I j E {jl, ... , jd) eine Basis von L(VI, ... , V n ). Warnung. Die Spalten Nr. jl, ... ,jk von S bilden im Allgemeinen keine Basis von L(Vl, ... ,Vn ). (4.3) Bemerkung. Die ZeilenstuJenmatrix ist eindeutig durch den von den Zeilen erzeugten Unterraum von Kn bestimmt. Will man also entscheiden, ob L(vt, ... ,vn ) = L(Wl, ... ,W s ), so bringt man die Matrizen mit Zeilen Vt, ... ,Vk bzw. Wl, ... , Ws durch ZeilenumJormung in ZeilenstuJenJorm.

Beweis. Sei U der Unterraum und Pj : U ~ Kj die Projektion auf den Raum Kj der ersten j Koordinaten:

Dann sind die Stufen an den Stellen j, wo dirn Pj(U) > dimpj_l(U), daher ist die Sequenzjl, ... ,jk durch U bestimmt. Sind also (al, ... ,ak) bzw. (b 1 , ••. ,bk ) Basen von U in Zeilenstufenform, und ist aj = LAibi, so ist Ai der Koeffizient von aj an der Stelle ji. Das ist aber tSij , also aj

i

=

D

bj .

(4.4) Definition. Ein lineares Gleichungssystem mit Koeffizienten in K ist ein System von Gleichungen der Gestalt au Xl

+ a12

amlXl

+ am2X2 + ... + amnx n =

X2

+ ... + al n

xn

bt . bm ,

aij, bi E K.

Es heißt homogen, wenn bl = ... = bm = 0, und im Allgemeinen inhomogen. Eine Lösung ist ein n- Tupel t(6, ... , ~n) E Kn, so dass die Gleichungen für Xl = 6, ... , Xn = ~n erfüllt sind. In Matrizenschreibweise bedeutet das

A . X = b,

A E M (m x n),

b E Km.

Das System ist homogen, wenn b = 0, und eine Lösung ist ein Vektor dass A· ~ = b. (4.5) Satz. Die Lösungen von A . X = den Unterraum ker (A), und

~ E

Kn, so

°bilden einen Unterraum von Kn, nämlich

dirn ker (A)

+ Rg (A)

n.

§4. Lineare Gleichungssysteme

73

Die Lösungsmenge von Ax = b ist leer oder ein affiner Raum zum Unterraum ker (A). Das inhomogene System hat genau dann eine Lösung, wenn gilt Rg (A)

=

Rg (Alb),

wobei die Matrix Alb aus A durch Anfügen der Spalte b entsteht (erweiterte Matrix des inhomogenen Systems). Beweis. Das erste und die Dimensionsgleichung wissen wir schon (3.17). Die Lösungsmenge von Ax = b ist entweder leer oder eine Klasse ~ + ker (A) -- siehe I, (2.6). Ist aj die j-te Spalte von A, so liefert eine Lösung der inhomogenen Gleichung Skalare 6, ... , ~n, so dass

sie existiert also genau, wenn b Linearkombinationen von a1, ... , an ist. Das zeigt das Letzte. 0 Das Letzte kann man auch so sagen: Dass A . x = b eine Lösung hat, besagt, dass b im Bild von A liegt. Und dieses Bild wird von den Spalten von A erzeugt. Es gibt also genau dann eine Lösung, wenn beine Linearkombination der Spalten von A ist. (4.6) Berechnen einer Lösungsbasis des homogenen Systems, d.h. einer Basis von ker (A). Es seien D 1, ... , Dm die Zeilen von A,

Bringe A durch Zeilenumformungen (1.2) in Zeilenstufenform S. Das Gleichungssystem Sx = 0 hat den gleichen Lösungsraum wie Ax = 0, denn wenn S die Zeilen 0"1, ... ,O"m hat, so ist

Wir betrachten also jetzt eine Matrix in Zeilenstufenform:

Sx =

S

o

?

o 1

o~

74

Kapitel Ir. Matrizenrechnung

Die Matrix B entstehe aus den ersten k Zeilen von 8 durch Weglassen der Spalten zum Index j1,'" ,jk und der letzten m - k Zeilen (die sowieso 0 sind). Die verbliebenen Indices seien r1, ... , rn-k, also {j1, ... ,jd U {r1, ... ,rn -d

= {l, ... ,n}.

Dann ist 8x = 0 äquivalent zur oben angegebenen Gleichung. Setzt man rechts den i-ten Standard-Basisvektor von Kn-k ein, so erhält man den Basisvektor des Lösungsraums

(Xi»

eiEKn-k,

=

i-te Spalte von -B.

x].

Für i

= 1, ... , n -

k ergibt sich so eine Lösungsbasis.

(4.7) Lösen des inhomogenen Systems. Man bringt die erweiterte Matrix Alb durch Zeilenumformungen in Zeilenstufenform 81s. Offenbar gilt wieder: Ax = b {=:} 8x = s. Die Umformungen führen zu äquivalenten Gleichungen. Ist die Rangbedingung des Satzes erfüllt und s = t(Sl"'" sm), so ist Sk+1 = ... = Sm = O. Setze Xj = 0 für j ~ {j1,'" ,jd und (xj" ... , Xj.) = (Sl,"" Sk), das ist eine Lösung. Natürlich löst man die homogene und die inhomogene Gleichung auf einmal, indem man Alb auf Zeilenstufenform bringt. (4.8) Bemerkung. Jeder Unterraum U Gleichungssystems.

c

Kn ist Lösungsraum eines homogenen

Beweis. Wähle ein Komplement V, also U EI? V = Kn, V Kern von K n = U EI? V ----t V ~ Km.

~

Km, dann ist U der

0

pr

Eine reguläre (n x n)-Matrix A ist ein Isomorphismus Kn ---7 Kn, und besitzt einen wohlbestimmten Inversen. Es gibt also eine eindeutig bestimmte inverse Matrix A -1, so dass A . A -1 = A -1 A = E. Diese inverse Matrix berechnet man so: Wir suchen die Lösung X E GL(n, K) der Gleichung A . X von X bedeutet das

=

E. Für die Spalten Xi

Dies ist ein inhomogenes Gleichungssystem für Xi mit erweiterter Matrix

AI ei, das wir lösen können, weil schon Rg (A) = n = Rg (Alei). Am Ende der Umformung auf Zeilenstufenform steht E an der Stelle von A und die gesuchte Lösung Xi an der Stelle von ei' Führt man das für die Spalten Xl, ... , Xn zugleich durch, so ergibt sich das Verfahren zur

§4. Lineare Gleichungssysteme

75

(4.9) Berechnung von A -1. Setze die Matrizen A und E

=

(bij)

nebeneinander:

AlE,

und mache mit dieser Matrix Zeilenumformungen, so dass an die Stelle von A die Einheitsmatrix E tritt. Dann steht an der Stelle von E die Matrix A-1.

(-~ -~ -~)

Beispiel.

( ~ ~!) 1

2

2

0

1

(~~~) 0 0 1

-1

.

Bisher haben wir die Zeilen- und Spaltenumformungen als ein handwerkliches Rechenverfahren gesehen, das sich etwas unschön neben den reinen Existenz- und Strukturaussagen der allgemeinen Theorie ausnimmt. Jetzt wollen wir das Verfahren noch einmal mit reinen Augen betrachten. Man kommt aus mit folgenden beiden (4.10) Zeilenumformungen

(i) (ii)

Vj

r--+

AVj,

A

Vjr--+Vi+Vj,

-I- O. i-l-j.

Beweis. Man erreicht

Vj

r--+

und die Vertauschung von

Vj

Vj

+ AVi,

und

Vi

A

-I- 0,

i

-I- j, durch die Sequenz

durch

(~;) M (Vi +~~) W(Vi ~~~) M (Vi +~) W (Vi

~~) M (-~)

w(~~).

Wenn man zwei Zeilen vertauschen kann, kann man natürlich jede Reihenfolge 0 herstellen. Jetzt betrachtet man die (n x n)-Matrix E ij , deren sämtliche Koeffizienten verschwinden außer dem in der Zeile i und Spalte j, und dort steht 1:

[] j

I

(4.11)

E ij =

(0 an allen anderen Stellen).

I :

----- ~ --

i

. Kapitel H. Matrizenrechnung

76

(4.12) Notiz. Ist A E M(n x m), so ist die i-te Zeile von EijA gleich der j-ten Zeile von A, und alle anderen Zeilen von EijA verschwinden. 0 (4.13) Folgerung. Die Zeilenumjormungen (4.10) bewirken

(i) A ~ (E + (,X - l)Ejj )A. (ii) A

(E

~

(E

+ E ij )A.

+ E ij )-l = E

- E ij jür i

1= j,

und (E

+ (,X -

l)Ejj ) -1

= E + (,X-l

- l)Ejj .

Beweis. Die letzte Formel rechnet man leicht nach, sie folgt aber auch aus dem Vorherigen, wenn man bedenkt, wie man die Operationen (4.10) umkehrt. 0 Zeilenumformungen entsprechen also der Linksmultiplikation mit gewissen invertierbaren Matrizen. Eine Sequenz von Zeilenumformungen bewirkt also auch eine Linksmultiplikation mit einer gewissen regulären Matrix T, dem Produkt entsprechender Matrizen aus (4.13). Das kann man noch einmal benutzen, um sich all die Rechenverfahren klarzumachen. Man wählt stets T so, dass TA Zeilenstufenform hat. Zur Lösung eines inhomogenen Gleichungssystems benutzt man

Ax = b {::=::} TAx = Tb. Um die inverse Matrix zu finden, bestimmt man T so, dass TA = E, und dann ist natürlich TE = T = A- 1 . (4.14) Satz. Jede reguläre (n x n)-Matrix ist Produkt von Matrizen

E

+ Eij ,

i

1= j,

und

E

+ ,XEii ,

,X

1= -1.

Beweis. Durch Zeilenumformung entsteht aus der regulären Matrix A -1 die Zeilenstufenmatrix E, also gibt es ein Produkt T von Matrizen der im Satz genannten Form, so dass T· A- 1 = E, also T = A. 0 Man sagt: Die Matrizen im Satz erzeugen die Gruppe GL(n, K). Übrigens, wenn man rechts mit den Matrizen (4.13) multipliziert, so bewirkt das entsprechende Spaltenumformungen. Das kann man ganz analog überlegen, es folgt aber auch, wenn man in allen Sätzen alle Matrizen transponiert: Was den Zeilen recht ist, ist den Spalten billig. Basisergänzung: Wende das Verfahren (4.2) auf das Thpel an (siehe I, (4.5)).

(VI, ... , Vr, WI, ... , Wk)

Lineares Komplement: Bestimme eine Basis (VI, ... , V r ) von U, so dass die Matrix mit diesen Zeilen Stufenform hat. Das Komplement hat die Basis der ei, wo i kein Stufenindex ist. Berechnen der dualen Basis: Die Basis bestehe aus den Spalten von A, dann besteht die duale Basis aus den Zeilen von A- 1 •

§5. Aufgaben

§5

77

Aufgaben

1. Seien U, V, W endlich-dimensionale Vektorräume und Cf! : U ---> V und 'ljJ : V ---> W lineare Abbildungen. Zeige: Ist U ---> V ---> W exakt, so ist auch W*

V*

--->

--->

1/1

'P

U* exakt.

2. Sei U ein K- Vektorraum und U = V EB W. Zeige:

(i) U* = V* EB W*. (ii) Vl.~W*,Wl.~V*. 3. Seien V, W

c

U Vektorräume über K. Beweise die Formeln:

(V

+ W)l.

Vl. n Wl. ,

(V n W)l.

Vl.

+ Wl.

.

4. Berechne alle Potenzen der Matrix

A

=

CI 0 0

0 1 -1 0

0 0 1 -1

1 2 0 3 0 0 0 0

~) (~ ~)

(1

0 0 1 0 1 1 1 1

~)

5. Beweise, dass die folgenden Matrizen eine zur symmetrischen Gruppe S(3) isomorphe Untergruppe von GL(2, Z) bilden.

1 0) (-1 (o 1 ' 0 6. Seien

1) (1 l' 1

0) (0 -1 ' -1

Xl

(1,1,1,1),

Yl

X:2

(1,2,1,1),

Y2

X:l

(1,1,2,1),

Y:l

X,I

(1,3,2,3),

Y4

-1) (0 0 ' 1

-1) (-1 -1 ' -1

1) 0 .

(1,0,3,3), (-2 , -3 , -5 , -4) , (2,2,5,4), (-2 , -3 , -4 , -4)

Vektoren aus IR 4 . Zeige, dass X = (Xl,X2,X3,:C4), Y = (Yl,Y2,Y:I,Y4) Basen des IR 1 sind und berechne die Basis-Transformation von X nach Y.

7. Sei n E N \ und sei E n = (ei,"" e n ) die (n x n)-Einheitsmatrix mit Spalten e I , ... , en . Für a E S (n) sei

Zeige: Die Menge aller solchen Matrizen bildet bezüglich der Multiplikation eine Gruppe.

Kapitel H. Matrizenrechnung

78 8. Zeige, dass die Matrizen der Form

(c~so: sm 0: mit

0:

- sino:) coso:

E lR bezüglich der Matrizenmultplikation eine abelsche Gruppe bilden.

9. Zeige, dass für die Matrizen der Form

mit x, y E C bezüglich der Matrizenaddition und -multiplikation alle Körperaxiome bis auf das Kommutativgesetz der Multplikation erfüllt sind. Mit anderen Worten: Diese Matrizen bilden einen Schietkörper (x bedeutet die konjugiert komplexe Zahl zur Zahl x).

10. Sei V ein endlich-dimensionaler Vektorraum. Für welche Unterräume U von V gibt es einen Endomorphismus

V mit ker( sin nt, 0 < n :::; N, tl--> cosnt, 0 :::; n :::; N, als Elemente von V linear unabhängig sind. Diese Funktionen sind Eigenvektoren eines linearen Endomorphismus von V. Gib einen solchen Endomorphismus an. 19. Seien A, B E GL(n, IC) mit AB = BA. Zeige: Ist VA der Eigenraum zum Eigenwert A von A, so ist BVA C VA' Zeige ferner: Es gibt einen Vektor, der zugleich Eigenvektor von A und von Bist. 20. Sei V ein endlich-dimensionaler komplexer Vektorraum und 'P E Aut(V), 'P n = id für ein n 2: 1. Zeige: Es gibt eine Zerlegung V = VI EB ... EB Vn , 'Pj := 'P I Vj : Vj --7 Vj, und 'Pj(v) = e27rijln . v für v E Vj. 21. Sei V ein n-dimensionaler reller Vektorraum und n ungerade. Zeige, dass jedes a : V --7 V einen Eigenwert besitzt, während es für jedes gerade nein a: V --7 V ohne Eigenwert gibt.

Kapitel IH. Die Determinante

108

22. Sei V ein endlich-dimensionaler komplexer Vektorraum und I : V -> V ein Endomorphismus. Sei (x - Al) ..... (x - An) das Minimalpolynom von I. Zeige: Für jedes Polynom p E C [x] ist das Minimalpolynom von pU) ein Teiler von

(x - p(Ad) ..... (x - p(A n )).

23. Sei V ein endlich-dimensionaler Vektorraum über K und I : V -> V ein Automorphismus. Zeige, dass ein Polynom p E K[x] existiert, so dass I-I =

pU)· 24. Sei K ein Körper. Für ein Polynom I E K[x] setze 10 = I, In+! = fn-~n(O) (= 0, falls I konstant ist). Definiere den Endomorphismus 00

A: K[x]

->

K[x],

I

f-t



f'(x) + L!J(x) , j=O

beachte: !J = 0 für degU) < j. Offenbar bildet A den Raum Vn der Polynome vom Grad::; n in sich ab. Berechne die Eigenwerte von AlVn : Vn -> Vr,. 25. Bestimme eine Basis des Lösungsraumes der linearen Differentialgleichung y[4] _ 5y[3]

26. Sei

0: :

V

->

+

9y[2] _ 7y[l]

V nilpotent, d.h. o:k

o:n = O.

=

+

0 für ein k

2y =

o.

> O. Sei n = dirn V. Zeige

27. Sei K algebraisch abgeschlossen und 0: : V -> V ein Endomorphismus von KVektorräumen. Zeige: V = VI EB· . ·EB Vk , o:(Vv ) C Vv , und zu Vv existiert Av E K mit (0: - Avid)n I Vv = O. Zeige in diesem Fall, dass das Minimalpolynom von 0: Grad::; n hat. 28. Sei V der Vektorraum der Polynome vom Grad ::; n. Berechne die Eigenwerte und Eigenvektoren der Abbildung V -> V, I(x) f-t x· I'(x). 29. Finde eine (2 x 2)-Matrix A mit ganzen Koeffizienten, so dass A 3 30. Bestimme sämtliche Coo-Lösungen y : ylll

+

y"

+

~ ->

y'

+

= 1, A =I=-

C der Differentialgleichung Y

= o.

l.

Kapitel IV

Bilinearformen Wär' alles dies nicht längst erdacht, Ich hätt' es nicht hervorgebracht, Und hätte müssen mich begnügen Ein Hüttendach aus Rohr zu fügen.

Worin wir, auf den Anfang der Vorlesung zurückkommend, von Skalarprodukten reden und auch ernstlich vom Reellen zum Komplexen übergehen.

§1 Bilinearformen und quadratische Formen Sei V ein Vektorraum über K. (1.1) Definition. Eine Bilinearform "( auf V ist eine Abbildung

"(: V x V

-->

K,

so dass für alle Al,A2 E K und alle V,Vl,V2,W,Wl,W2 E V gilt: "(AlVl

+ A2V2,W)

=

An(Vl,W)

"(V, AIWI +A2W2) = An(V,Wl)

+ A2"(V2,W), + A2"(V,W2).

Also mit anderen Worten: Die Abbildungen

V

-->

K,

v

f---+

"(v, w)

bzw.

W

f---+

"(v, w)

bei festem W bzw. v sind linear. Sei nun dirn V = n und (VI, ... , v n ) eine Basis von V. Die Matrix

heißt die Fundamentahnatrix von "( für diese Basis.

T. Bröcker, Lineare Algebra und Analytische Geometrie © Birkhäuser Verlag 2003

Kapitel IV. Bilinearformen

110

Durch G ist 'Y bestimmt, und jede Vorgabe einer Matrix G bestimmt eine Bilinearform 'Y durch

= L XiYj9ij = txGy.

'Y(LXiVi,I>jVj) i

j

i.j

Für Kn mit der Standardbasis gehört die Fundamentalmatrix G zur Bilinearform 'Y: (x, y)

(1.2)

I--t

txGy.

Alle Bilinearformen entstehen so; ist also Bil(V) der Vektorraum der Bilinearformen auf V mit naheliegenden Operationen, so hat man einen Isomorphismus M(n x n, K) ~ Bil(Kn), der G die Bilinearform (x, y) I--t txGy zuordnet. Wie ändert sich G, wenn man die Basis transformiert? Sei T die Transformation auf neue Koordinaten, also

x

= Tx,

y

= TY.

Dann folgt 'Y(Tx, Ty) = t(Tx)G(Ty) = tx(trGT)y, so dass für die neuen Koordinaten 'Y durch die Fundamentalmatrix

gegeben ist. In einem kleinen Diagramm:

Noch anders kann man Bilinearformen ansehen, nämlich: Sei f lineare Abbildung in den Dualraum, dann ist durch (1.3)

V --. V* eine

'Y(V,w) = (fw, v)

eine Bilinearform definiert, und umgekehrt, wenn die Bilinearform 'Y gegeben ist, so definiert (1.3) eine lineare Abbildung f: V--.V*,

r(w): vI--t'y(v,w).

So haben wir durch (1.3) einen kanonischen Isomorphismus Bil(V) ~ HomK(V, V*),

111

§1. Bilinearformen und quadratische Formen und dem obigen Transformationsdiagramm entspricht ein Diagramm

V

__ tT,,-,r,,-,1,,-,'_-+)

V*

---::;-----+)

V*.

r

In Matrizen: Sei (vi, ... , v~) die duale Basis zu (VI, ... , V n ), und sei

(1.4)

rVj

= LgkjVk,

= Matrix von r,

(gij)

k

dann ist 'Y(Vi, Vj) = (rVj, Vi) = gij, also: die Fundamentalmatrix G ist die Matrix von r : V ----+ V*, wenn man auf V* die duale Basis einführt. Im K n :

der Bilinearform (x, y) y 1---+ t(Gy).

1---+

txGy entspricht die lineare Abbildung K n

----+

Kn*,

Die Gramsche Determinante 9 = det( G) hängt von der Basis ab, nicht aber der Rang von G, denn Rg(tTGT) = Rg(G)

für

TE GL(n, K).

(1.5) Definition. Eine Bilinearform 'Y auf V heißt symmetrisch, wenn gilt 'Y( v, w) = 'Y( w, v) für alle v, w E V. Sie heißt nicht ausgeartet (regulär), wenn die zugehörige lineare Abbildung r : V ----+ V* isomorph ist. Im Endlich-dimensionalen ist 'Y symmetrisch, wenn (1.5) für Basisvektoren erfüllt ist, also genau dann, wenn gij

= gji für alle i,j, d.h. tc = G,

G

ist symmetrisch,

und'Y ist nicht ausgeartet, wenn G regulär ist. Dabei genügt, dass und das heißt:

'Y(V,w) = 0 für alle V E V

=::}

w =

r

injektiv ist,

o.

(1.6) Definition. Sei 'Y eine symmetrische Bilinearform auf V, dann heißt die (ebenso bezeichnete) Abbildung 'Y: V die zugehörige quadratische Form.

----+

K,

V

1---+

'Y( v, v)

112

Kapitel IV. Bilinearformen

Aus dieser kann man die Bilinearform "( wiederfinden, falls 2 -=f 0 in K, denn "((v + w) = "((v + w, v + w) = "((v) + "((w) + "((v, w) + "((w, v), also

(1.7)

"((v,w) = ~b(v + w) - "((v) - "((w)).

Oder ähnlich "((v - w) = "((v)

(1.8)

+ "((w)

- 2"((v, w), also

"((v+w)-"((v-w) = 4"((v,w).

(1.9) Definition. Eine Basis (VI, ... ,vn ) von V heißt Orthogonalbasis für die Bilinearform "(, wenn gilt "((Vi, Vj) = 0 für i -=f j. Das bedeutet mit anderen Worten: G ist eine Diagonalmatrix. Beispiel. In der Mechanik ist jedem Punkt p des Raumes M, in dem ein Teilchen sich bewegen kann, ein Vektorraum V zugeordnet, der Raum der möglichen Geschwindigkeiten des Teilchens in p.

Dann liefert jede differenzierbare Funktion f : M --. IR. das Element dfp

dfp(v) = (d/dt) für eine Kurve x(t), -c

< t < c, mit x(O)

E

V', mit

I f(x(t)),

t=o

= p,

x(O)

=

v. In Koordinaten

Nun hat man in der Relativitätstheorie die Bilinearform "( mit Fundamentalmatrix

(weiße Stellen sind 0) in geeigneten Koordinaten (Minkowski-Metrik), und für diese Koordinaten ist dann ein wohldefinierter Vektor in V.

§2. Euklidische Räume

§2

113

Euklidische Räume

(2.1) Definition. Ein euklidischer Raum ist ein reeller Vektorraum V mit einer symmetrischen Bilinearform

V x V

(v,w)

-+]R,

t---+

(v,w),

dem euklidischen Skalarprodukt (der Metrik), die positiv definit ist, d.h.

(v, v) > 0 falls

v =J O.

Beispiele. Der Standardraum ]Rn mit dem Standard-Skalarprodukt

(x,y) =

txy =

LXjYj. j

Hieraus entstehen nicht ernstlich neue Beispiele wie folgt: Sei A eine reguläre (n x n)-Matrix und "((x, y) := (Ax, Ay) = tx(1!A)y, x, y E ]Rn. Auch dies definiert offenbar ein euklidisches Skalarprodukt. Es entsteht aus dem StandardSkalarprodukt durch Basistransformation mit A. Sei V der Raum der stetigen Funktionen [0, 1]

-+ ]R

und

J 1

(1, g) :=

f(t)g(t) dt.

o

Dieser und verwandte Räume sind wichtig in Physik und Analysis. Wir verfahren, wie wir es aus der Schule für Raum. Dann heißt für v E V lvi

= ~

]Rn

kennen: Sei V ein euklidischer

Norm von v.

Für.x E lR ist l.xvl = l.xl·lvl, und v heißt Einheitsvektor, wenn lvi = 1 gilt; v heißt orthogonal zu w, wenn (v, w) = 0 gilt. Ist dirn V < 00, so ist das Skalarprodukt nicht ausgeartet. Ist nämlich w =J 0, so ist die Linearform (-, w) : V -+ ]R, V t---+ (v, w), nicht 0, weil (w, w) =J O. Ist U c V ein Unterraum, so bilde UJ.:= {v E V I (v,u) = 0 für alle u EU}. Dies ist ein Unterraum von V, und wenn dirn V< 00, so ist

dimU +dimUJ. = dimV. Das Skalarprodukt definiert ja eine Injektion, also für dirn V < phismus r: V -+ V* , W t---+ (., w), und UJ. ist (rU)J. im früheren Sinne (siehe In, (2.11)).

00

einen Isomor-

114

Kapitel IV. Bilinearformen

(2.2) Definition. Seien V, (-, ')v und W, (-, ')w euklidische Räume. Eine lineare Abbildung a : V ~ W heißt orthogonal, wenn gilt

(a(u),a(v))w = (u,v)v Sei dirn V = n. Eine Basis

(VI, ... ,Vn )

(Vi,Vj) = bij

füralle

U,VEV.

von V heißt orthonormal, wenn gilt

für alle i,j = 1, ... ,n.

Letzteres besagt im Sinne unserer Übersetzung des Wortes Basis: Der zugehörige Isomorphismus

ist orthogonal, wenn IR n der Standardraum ist. Es ist daher gut zu wissen, dass ein endlich-dimensionaler euklidischer Raum stets eine Orthonormalbasis besitzt: Bis auf orthogonale Isomorphie, die also alles erhält, was zur euklidischen Struktur gehört, gibt es nur den IR n , genauer:

(2.3) Gram-Schmidt Orthogonalisierung. Sei VI, ... , Vk ein Orthonormalsystem in V, d.h. (Vi,Vj) = bij, und es werde durch Wk+I, ... ,Wn zu einer Basis von V ergänzt. Dann kann man das System VI, ... ,Vk induktiv zu einer Orthonormalbasis ergänzen, indem man setzt k

Vk+I .- Wk+I - L(Wk+l'Vi)' Vi i=l

Beweis. Beachte zunächst, dass

VI, ...

,Vk linear unabhängig sind, denn

k

v:= LAjVj = O===?(v,Vj) = Aj = O. j=I

Offenbar ist auch (VI, ... Vk, Vk+I, Wk+2, ... , w n ) eine Basis, denn man hat nur von Wk+I eine Linearkombination der vorherigen Basisvektoren abgezogen. Insbesondere ist Vk+l =1= O. Nach Konstruktion ist

(Vk+I,Vj) = (Wk+I,Vj) - L(Wk+I,Vi)(Vi,Vj)

Das bleibt richtig, wenn man Vk+I um einen positiven Faktor abändert, und für Vk+l wählt man ihn so, dass IVk+II = 1. D Eine symmetrische reelle Matrix G heißt positiv definit (G > 0), wenn die zugehörige Bilinearform (x, y) I----? txGy positiv definit (euklidisch) ist. Der Satz sagt:

§2. Euklidische Räume

115

(2.4) Folgerung. Ist G eine positiv definite reelle (n x n)-Matrix, so existiert eine reguläre reelle (n x n)-Matrix T, so dass G = tTT, und umgekehrt, wenn T regulär ist, ist tTT > O. Beweis. T ist die Transformation, welche die Orthonormalbasis für das Skalarprodukt (x, y) f--7 txGy in die Standardbasis überführt, also t(Tx)(Ty) = txGy, d.h. tx (1TT)y = txGy, also tTT = G. 0

Genauer ist die durch Gram-Schmidt-Orthogonalisierung konstruierte Transformation T mit T( Vj) = Wj eine obere Dreiecksmatrix mit positiver Diagonale, also

T = (tij),

t ij

= 0 für

i

> j,

und

t ii

> o.

Ist Wein euklidischer Raum und V c Wein linearer Unterraum, so erbt V die Struktur eines euklidischen Raumes. Das induzierte Skalarprodukt von V entsteht durch Einschränkung aus dem von W. Ist nun V endlich-dimensional, so ist V orthogonal isomorph zu IR n , und alles, was wir an allgemeinen Aussagen über IR n mit dem Standard-Skalarprodukt wissen, gilt auch in V. Insbesondere gilt das für Sätze, in denen nur endlich viele Vektoren vorkommen, denn endlich viele Vektoren liegen immer in einem endlich-dimensionalen Unterraum. So gilt zum Beispiel in jedem euklidischen Raum: (2.5) Schwarzsehe Ungleichung. v, w linear abhängig sind.

I(v, w)1 ::; lvi· Iwl,

(2.6) Dreiecksungleichung.

Iv + wl ::; lvi + Iwl·

und Gleichheit gilt nur, wenn 0

o

Beispiel. Sei V der Raum der stetigen Funktionen [0, 1]

--+

IR mit dem Skalarpro-

1

dukt (I, g) = Jf(t)g(t) dt, dann gilt: o 1

1

1

( / f(t)g(t) dtf < ( / f2(t) dt) ( / g2(t) dt). o o o

(2.7) Orthogonalprojektion. Sei V ein euklidischer Raum und U c V ein endlichdimensionaler Unterraum mit dem induzierten Skalarprodukt. Man hat eine direkte Zerlegung V = UEBUJ., also eine wohlbestimmte Abbildung, die Orthogonalprojektion von V auf U, Pu: V =

U EB

uJ.

------7

pr,

U.

Kapitel IV. Bilinearformen

116

Beweis. Ist v E U n u-l.., so ist (v, v) = 0, also v (U1' ... ,un ) eine Orthonormalbasis von U, so ist

= O. Also

U

n uJ.. = O. Ist

n

=

V

u+u

mit

u:= I)v,Uj)Uj, u := v-u. j=l

Offenbar ist U E U und (u, Uj) tion ist gegeben durch

= 0 für alle j, also u E UJ... Die Orthogonalprojekn

D

Pu(v) = L(v, Uj) . Uj. j=l

(2.8) Bemerkung. Unter allen U EU hat Pu(v) den kleinsten Abstand von v. Beweis. v = Pu(v) Iv - Pu(vW.

+ U,

u E UJ.., also

Iv - uI 2

= Ipu(v) -

uI 2 + lul 2

~

lul 2 D

Ist e1, e2, ... ein (vielleicht unendliches) Orthonormalsystem in V, so heißt (v, ej) auch der j-te Fourierkoeffizient von v E V für dieses Orthonormalsystem. Es gilt: L(v, ej)2 S

(2.9) Besselsche Ungleichung.

Iv1 2 .

j

n

Beweis. v

Ivl 2 =

=

L(v,ej)ej +w mit w E L(e1, ... ,en )J... Daher: j=l

n

L(v, ej)2

+ Iwl 2 ~

j=l

n

D

L(v, ej)2. j=l

Insbesondere ist die Reihe

L (v, ej)2 konvergent. j

Beispiel. Sei V wieder der Raum der stetigen Funktionen [0,1] Das Orthonormalsystem sei durch die Funktionen

t

~

2 sin(n . 27ft),

t

~

2 cos(n . 27ft),

gegeben. Dies liefert die Fourierkoeffizienten

nE N,

----->

und

f im üblichen Sinne.

IR wie gehabt. 1,

§3. Orthogonale Gruppen

117

Ist (eI, ... , en ) eine Orthonormalbasis von V, so ist

v = L(v, ej)ej

(2.10)

j

die Darstellung von v E V als Linearkombination der Basisvektoren, denn multipliziert man eine Darstellung v = Alel + ... + Ane n skalar mit ek, so steht da

(v, ek) = Ak.

Betrachte einen affinen Unterraum Ades n-dimensionalen euklidischen Raumes V, also A = q + U, wo U ein (n - k)-dimensionaler Untervektorraum ist. Wähle eine Orthonormalbasis (Cl, ... , Ck) von U.L, und setze a j = (Cj, q). Das hängt nicht von der Wahl von q E A ab. Dann ist Ader Lösungsraum des folgenden Gleichungssystems:

(2.11) Hessesehe Normalform. (Cj, x) - aj = 0,

j = 1, ... , k.

(2.12) Bemerkung. Ein Punkt pE V hat von A den minimalen Abstand I(A], ... ,Ak)l, Norm in ]Rk, mit Aj := (Cj,p) - aj, j = 1, ... ,k.

Beweis. Ein Punkt q E A hat minimalen Abstand von p, wenn p - q E U.L, also p - q = L/iCi ist. Dann ist Aj = (Cj,p) - (Cj, q) = (Cj,p) - aj, und der Abstand ist Ip-ql = IL;A;C;I = I(AJ, ... ,Adl·

0

Für eine Hyperebene A hat man so eine Gleichung (c, x) - a = 0, Ici = 1, in Hessescher Normalform, und ein Punkt p E V hat den Abstand I(c,p) - al von A.

PTp _ q

-Cy-A q

§3

L-u

Orthogonale Gruppen

°

Natürlich studieren wir nicht nur euklidische Räume, sondern vielmehr die Kategorie der euklidischen Räume und orthogonalen Abbildungen: Die Identität eines euklidischen Raumes ist orthogonal, und eine Zusammensetzung orthogonaler Abbildungen ist orthogonal. Eine orthogonale Abbildung a : V ----> W ist stets injektiv, denn ist a(v) = 0, so ist lvi = la(v)1 = 0, also v = 0. Sind die Dimensionen gleich, so ist die Abbildung ein Isomorphismus. Mit gutem Recht interessieren wir uns vor allem für die orthogonalen Isomorphismen des Standardraumes ]Rn auf sich; wir identifizieren dabei Hom(]Rn, ]Rn) mit M(n x n, ]R).

Kapitel IV. Bilinearformen

118

(3.1) Satz. Die Gruppe der orthogonalen linearen Abbildungen A : IR n -+ IR n für das Standard-Skalarprodukt heißt orthogonale Gruppe der Ordnung n, bezeichnet durch O(n). Genau dann ist A E O(n), wenn gilt ~·A =

E,

d.h. genau dann, wenn A die Standardbasis auf ein Orthonormalsystem abbildet. In diesem Fall ist Idet(A)1 = 1. Die Untergruppe SO(n)

= {A

E

O(n) I det(A)

I}

heißt spezielle orthogonale Gruppe der Ordnung n. Beweis. A E O(n) ~ t(Ax)(Ay) = txy für alle x, y E IR n ~ tx(~A)y txEy ~ ~A = E, setze x = ei, Y = ej. Weil die Spalten von A die Bilder der ej sind, gilt die zweite Behauptung. Aus ( det(A)) 2 = det(~) . det(A) = det(~· A) = det(E) = 1 folgt die dritte. D

Beachte übrigens, dass auch A~ = E, weil ~ = A- 1 . Daher ist ~ orthogonal, die Zeilen sind ein Orthonormalsystem, und A -1 ist orthogonal. Ein orientierter euklidischer Raum besitzt stets positive Orthonormalbasen; notfalls ersetze V1 durch -V1. Die Gruppe SO(n) ist die Gruppe der orientierungserhaltenden orthogonalen Abbildungen des Standardraums IR n mit der Standardorientierung, d.h. A E SO(n) bildet positive Basen auf positive Basen ab, weil eben det(A) > O. (3.2) Die kanonische Volumenform. Ein endlich-dimensionaler orientierter euklidischer Raum V besitzt eine kanonische Volumenform w, die eindeutig durch folgende Bedingung festgelegt ist: Ist (V1, ... , v n ) eine positive Orthonormalbasis, so gilt W(V1' ... 'V n )

=

1.

Beweis. Nach Wahl einer Basis ist oBdA V = IR n und die Volumenform ordnet einem n-Thpel von Spaltenvektoren die Determinante der Matrix mit diesen Spalten zu. Für ein positives Orthonormalsystem ist die Matrix in SO(n), die 0 Determinante also 1.

Und welchen Wert hat

W

auf irgendeiner Basis von V?

(3.3) Satz. Sei (V1, . .. ,vn ) eine positive Basis des orientierten euklidischen Raumes V mit Fundamentalmatrix G, dann ist W(V1, ... , v n )

=../9,

g

= det(G).

Beweis. Wir dürfen annehmen V = IR n ; dann bilden die Vektoren Vj die Spalten einer Matrix B, und nach dem eben Gesagten ist dann W(V1, ... , v n ) = det(B), und dies ist positiv. Aber (Vi, Vj) ist das Skalarprodukt der j-ten Spalte von B mit der i-ten, also der i-ten Zeile von tB, also G = ((Vi,Vj)) = tBB, somit g = det(B)2. D

§3. Orthogonale Gruppen

119

Man braucht also keine Basis, um sinnvoll vom Volumen eines Spats reden zu können, man braucht nur eine Metrik. Wir wollen die orthogonalen Gruppen O(n) und SO(n) für kleine n näher betrachten.

(3.4)

0(1)

=

{id,-id}

= {1,-1}

~

SO(l) = 1.

71../2.

(3.5) SO(2) ist die Gruppe der Drehungen von ]R2 um O. Ist A E SO(2), so gilt Ae1 = (~), a 2 + b2 = 1, und wir können setzen a = cOS IR, (x, y) f---* txtBBy ist genau dann symmetrisch und positiv definit, wenn B invertierbar ist. 9. Sei K ein Körper. Zeige, dass

"(: M(n x n,K) x M(n x n,K)

->

K

mit "((A, B) = Spur(l1· B) eine symmetrische positiv definite Bilinearform auf M(n x n, IR) definiert. 10. Sei V ein reeller Vektorraum und "( : V x V -> V eine Bilinearform, so dass "((v, v) = 0 für alle v E V. Folgt dann "( = O? 11. Die quadratische Form "( auf IR 3 verschwinde auf einem 2-dimensionalen Unterraum von IR 3 . Kann "( regulär sein? Und wie stehts, wenn "( auf einem I-dimensionalen Unterraum verschwindet?

134

Kapitel IV. Bilinearformen

12. Bestimme eine Orthonormalbasis des euklidischen Vektorraumes V der reellen Polynome vom Grad ::::; 2 mit dem Skalarprodukt

J 1

(f,g) =

f(x)· g(x)dx .

o

13. Seien VI, ... , Vn , W Vektoren im euklidischen Raum, so dass

(i) (Vj,w) > 0, j (ii) (Vi, Vj) ::::;

°

=

1, ... ,n.

für i =I- j.

Das erste heißt, dass alle Vj in dem Halbraum H = {x

I (x,w) > o}

liegen, das zweite, dass je zwei einen stumpfen Winkel bilden. Zeige, dass linear unabhängig sind.

VI, ... ,Vn

14. Sei V ein euklidischer Raum und VI, ... ,Vn E V. Zeige: Die Gramsche Determinante det((vi,Vj))i,j=l, ... ,n, verschwindet genau dann, wenn VI, ... ,Vn linear abhängig sind. Die stetigen Funktionen 11, ... , fn : [0,1] ---4 IR im Vektorraum aus Aufgabe 12 sind genau dann linear unabhängig, wenn det (J; fi(t)fJ(t)dt) =I- 0. 15. (Satz von Fischer-Cochran). Auf dem n-dimensionalen euklidischen Raum V seien quadratische Formen ql, ... ,qm mit Rängen rl, ... , r m (der zugehörigen Bilinearformen) gegeben, so dass gilt:

(i) qI(X)

+ ... + qm(x) = (x,x).

(ii) rI+ ... +rm=n. Dann gibt es eine orthogonale Zerlegung V = VI EB··· EB Vm , (d.h. (Vi, Vj) = für Vi E Vi, i =I- j), mit Projektionen Pi : V ---4 Vi, so dass gilt:

°

16. Sei V ein euklidischer endlich-dimensionaler Raum, U c V ein Unterraum. Die Funktion



A· B

ist bijektiv. Hinweis: Gram-Schmidt. Sei SQ(n)

= {B E Q(n) I detB = I}. Zeige ebenso:

SO(n) x SQ(n)

--->

SL(n, IR),

(A, B)

Folgerung: Man hat eine Bijektion Si x IR 2 explizit.

A· B, ist bijektiv.

f->

--->

SL(2, IR), beschreibe sie

19. Die Matrix A E O(n) habe nur reelle Eigenwerte. Was folgt daraus für A 2 ?

20. Sei V ein endlich-dimensionaler euklidischer Vektorraum und f : V ---> V eine orthogonale Abbildung. Zeige: fist genau dann selbstadjungiert, wenn f 0 f = id. 21. Beschreibe einen injektiven Gruppenhomomorphismus O(n)

--->

SO(n + 1).

22. Sei A eine (n x n)-Matrix, so dass A 2 E O(n). Folgt dann A E O(n)? 23. Sei A E GL(n, IR) und A k E O(n). Zeige: A ist in GL(n, IR) konjugiert zu einem Element aus O(n). Hinweis: Sei ,,(x, y) = (x, y) + (Ax, Ay) + ... + (A k - l x, A k - l y). Zeige: " ist positiv definit, ,,(x, y) = ,,(Ax, Ay), und folgere aus dem Satz über Existenz orthonormaler Basen die Behauptung. 24. Sei A E M(n x n, IR), so dass lxi sn-I. Folgt dann A E O(n)?

= 1 =*

IAxl

=

1. Anders gesagt: Asn-l

c

25. Zeige: Das Zentrum von O(n) ist {id, -id}. 26. Seien A, BE O(n), n ungerade. Zeige: det ((A - B)(A

+ B)) = O.

27. Zeige: Die Abbildung cp: SL(2,K)

--->

SL(2,K),

A

f->

Yl.- 1

ist ein Homomorphismus, und es gibt eine Matrix TE SL(2, K), so dass Tcp(A)T- l = A.

Kapitel IV. Bilinearformen

136

28. Sei V ein euklidischer Raum und a E End(V), so dass v E V. Ist a notwendig orthogonal?

la( v) I = lvi

für alle

29. Zeige: Ist ,\ ein Eigenwert von A = (ai]), so ist

1,\1::; 2.= la,jl

für ein

l.

30. Sei a : V --+ Weine surjektive lineare Abbildung endlich-dimensionaler Vektorräume. Sei 6 : W --+ K eine quadratische Form. Zeige: '"'/ :=

80 a: V

--+

K

ist eine quadratische Form von gleichem Rang und gleichem Index wie 6. 3l. Sei A E: End(IR TI ). Zeige rg(~A) = rg(A). :32. Seien A, B E End( IR n ) symmetrisch, und sei A . B = rg(A) + rg(B).

o.

Zeige: rg(A

+ B)

=

33. Sei V ein endlich-dimensionaler euklidischer Raum. Eine Spiegelung von V ist eine orthogonale Abbildung a : V --+ V, so dass a cf id und a (u) = u für jeden Vektoru eines Unterraumes U von V mit dirn U = dirn V-I. Zeige: (i) Für jedes e E V mit lei = 1 ist die Abbildung V eine Spiegelung von V.

--+

V, v

--+

1'-2· (v, c)·e

(ii) Zu jeder Spiegelung a von V gibt es ein e E V, so dass a(v) = v - 2· (o,e)· e für jedes 0 E V.

lei

(iii) Sei CY : V --+ V eine orthogonale Abbildung. Zeige, dass von Spiegelungen von V ist.

ein Produkt

CY

=

1 und

34. Berechne die Eigenwerte der Matrix

und bestimme ein T E M(3 x 3, IR), so dass T AT- 1 Diagonalgestalt hat. 35. Zeige, dass man die bei den quadratischen Formen auf IR 2 '"'/1 : (x, y)

H

X.Y

'"'/2: (X,Y)HX 2 _y'2

nicht simultan diagonalisieren kann. 36. Zeige, dass die Summe zweier Eigenwerte des Trägheitstensors größer oder gleich dem dritten Eigenwert ist.

§6. Aufgaben

137

37. Sei V der reelle Vektorraum der Polynome von Grad n 2 1. Bestimme den Rang und den Index der quadratischen Form , :V

---+

IR,

,U)

=

t

J()

f(t)j'(t)dt.

Lässt diese }örm sich in die Form cl' : V ---+ IR, f f-+ f(1)2 + f(2)2 transformieren, d.h. cl' = , 0 Cl' für einen Automorphismus Cl' von V? 38. Auf IR 4 betrachte die quadratischen Formen

,(x, y, z, t)

xy

cI'(x, y, z, t)

x2

"y

und cI':

+ zt, + y2 + z2

_

t2

Gibt es einen Automorphismus Cl' von IR\ so dass cl'

.

= "y 0 Cl'?

39. Auf dem n-dimensionalen reellen Vektorraum V seien zwei euklidische Metriken (. , . hund ( . , . )2 gegeben. Gibt es dann stets eine Basis (VI, ... ,vn ) von V, die für beide Skalarprodukte zugleich orthogonal ist (d.h. (Vi, Vj) = 0 für i =I- j)? 40. Sei A eine reelle symmetrische positiv definite (n x n)-Matrix. Zeige: Es gibt genau eine reelle symmetrische positiv definite (n x n)-Matrix B mit B 2 = A und AB = BA. 41. Prüfe, ob folgendes gilt: Zu jedem A E SO(n) existiert ein B E SO(n) mit

B 2 =A. 42. Gib ein A E End(Kn) an, so dass A nicht das Quadrat eines Elements von End(K n ) ist.

43. Seien" cl' quadratische Formen auf IR n , die nicht beide positiv definit sind und die gleiche Nullstellen haben, also ,(x) = 0 ~ cI'(x) = O. Zeige, = )'.cI' für ein). E IR*. 44. Zeige: Ist XA(t) = C' +ajt n- 1 + '" +an-j, so ist XA-l (t) = (_1)n det(A)-l(l + a] t + ... + ant n ). 45. Welchen Index hat die auf IR n durch

,(x) = I>iXj i 0 und det(A) > O. (iii) Sei V ein endlich-dimensionaler euklidischer Vektorraum und f : V ----t V ein selbstadjungierter Endomorphismus mit lauter positiven Eigenwerten. Zeige: fund f 0 f haben dieselben Eigenvektoren, und die Eigenwerte von f 0 f sind die Quadrate der Eigenwerte von f. 58. Sei A E G L( n, C ), so dass A ~ = aus Eigenvektoren von A hat.

~A.

Zeige, dass C n eine Orthonormalbasis

59. Sei 'Y eine symmetrische Bilinearform auf IR n . Gibt es stets eine hermitesche Form auf C n, deren Einschränkung auf IR n (d.h. auf IR n x IR n ) gleich 'Y ist? 60. Sei A E Aut(C n), k E N, und C n besitze eine Basis aus Eigenvektoren von Ak. Besitzt C n eine Basis aus Eigenvektoren von A? 61. Sei a : V ----t Weine lineare Abbildung unitärer Räume, a -1= 0, und für alle u,v E V gelte: (u,v) = 0 ===} (a(u),a(v)) = O. Zeige: Es existiert ein ,x E IR+, so dass ,x. a unitär ist. Hinweis: Betrachte u

+ v, u - v.

62. Seien A, BE End(C n). Zeige: Ist AB nilpotent, so auch BA. 63. Zeige: Ist A hermitesch und ,x E C \ IR, so ist E + ,xA regulär. Ist A E End]R(IRn ), ~ = -A und,x E IR, so ist E +,xA regulär. 64. Sei f E IR[x] und A hermitesch. Zeige, dass dann auch f(A) hermitesch ist.

Kapitel IV. Bilinearformen

140

65. Gelten folgende Behauptungen für jede hermitesche Matrix A? (i) Ist A:l (ii) Ist A 4

= A, so ist A 2 = A. =

A, so ist A2

A.

=

(iii) A > 0 genau dann, wenn tvAv 66. Sei A

=

#- 0 für alle v #- o.

(17 -2 -2) -2 -2

6 4

4 6

.

Gib ein B E 0(3) an, so dass tBAB Diagonalgestalt hat. 67. Sei V ein euklidischer endlich-dimensionaler Raum, U Die Funktion 'P : V ---> ]R sei durch

'P(x)

=

min{lx - ul 2

c V ein Unterraum.

I U E U}

definiert. Zeige: 'P ist eine quadratische Form auf V. 68. Sei V der Vektorraum der stetigen reellen Funktionen auf dem Intervall [-1,1] und"t die Bilinearform

J 1

"tU, g)

f(t)g(-t)dt.

-1

Zeige, dass "t symmetrisch und nicht ausgeartet ist, also: = 0 für alle g = } f = O. Beschreibe eine für "t orthogonale Zerlegung V = V+ EB V_, so dass "t auf V+ positiv und auf V_ negativ definit ist.

"tU, g)

69. Sei fein Endomorphismus eines unitären Raumes V. Zeige: Ist (f(x), x) für alle x E V, so ist f = o.

=

0

70. Sei A eine symmetrische reelle positiv definite (n x n)-Matrix und sei b E ]Rn \ {O}. Zeige, dass die Matrix

(ffi) regulär ist. 71. Sei A E O(n). Zeige im(A - E) ..l ker(A - E).

Kapitel V

Die Jordansehe Normalform Si modo duraris, praemia digna fcres!

Worin die Theorie der Eigenwertzerlegungen von Endomorphismen vollendet wird.

§1 Im Komplexen Eigentlich kommt es nicht darauf an, dass der Körper C ist; wir machen aber in diesem Abschnitt folgende Voraussetzung. Sei K ein algebraisch abgeschlossener Körper und a ein Endomorphismus eines n-dimensionalen Vektorraumes V über dem Körper K. Hier operieren nun nicht nur die Skalare aus K auf V, sondern auch der Endomorphismus a, und wir führen folgende Redeweise ein: (1.1) Definition. Ein Unterraum U C V heißt a-invariant (a-Modul), wenn gilt c U. Das a-Erzeugnis einer Menge {Vj I j E J} von Vektoren, bezeichnet durch Ln(vj I j E J), ist der kleinste a-Modul, der die Vektoren Vj, j E J, enthält, also: aU

{LAjk' ak(vj) I Ajk j.k Ein a-Modul U heißt zyklisch, wenn U nilpotent, wenn a k = 0 für ein k E N ().

E

K, k

Lrx(v) für ein v

E

No}.

E

V, und a heißt

Wir werden V in eine direkte Summe einfacher zyklischer a-Moduln zerlegen, die nicht weiter a-invariant zerlegbar sind.

T. Bröcker, Lineare Algebra und Analytische Geometrie © Birkhäuser Verlag 2003

Kapitel V. Die Jordansche Normalform

142

Zunächst können wir das Minimalpolynom

f

von n: in Linearfaktoren zerlegen:

mit verschiedenen Wurzeln Al, ... , Ak. Dies gilt, weil K algebraisch abgeschlossen ist, und nur insoweit benutzen wir diese Voraussetzung. Der erste Zerlegungssatz produziert daraus eine kanonische Zerlegung

in n:-invariante Teilräume. Wir wissen zudem, dass sich die Projektion V auf den j-ten Summanden als Polynom qj(n:) schreiben lässt, mit

qj(t)

=

hj ·

rr

----+ V(Aj)

(t - Asts,

s=f-j

aber das soll uns vorläufig nicht weiter kümmern. Jetzt wollen wir die Summanden der Zerlegung näher studieren, also die Endomorphismen

Mit anderen Worten, wir betrachten einen Endomorphismus n:: W

----+ W,

mit

(n: - A . id)m = 0.

Wir schreiben n: = A . id + cp und wissen demnach cpm = 0, also: cp ist nilpotent. Weil jeder Unterraum von W unter A· id invariant ist, kommt es nun darauf an, den nilpotenten Endomorphismus cp : W ----+ W zu betrachten und W in cp-Moduln zu zerlegen, soweit es eben geht. Wie sehen die zyklischen Unterräume in diesem Fall aus? (1.2) Satz. Sei cp : W ----+ W nilpotent, sei w E W mit cpk-l(W) =j:. 0, cpk(w) = 0. Dann sind w,cp(w), ... ,cpk-l(W) linear unabhängig, also dimLcp(w) = k. Diese Zahl k heißt die Periode von w.

Beweis. Angenommen, man hat eine Relation Arcpr(W)

+ Ar+l'E)TLu = O. Also: die Konjugation c : C TL --> C TL hat auf dem Unterraum W (A) die Wirkung c: U(A) EB U(>')

-->

U(A) EB U(>'),

(u, v)

f--4

(v, u).

Die reellen Vektoren sind die Elemente, die unter c festbleiben, also die Elemente (u, u) E U(>'), oder anders geschrieben, u+u = 2Re(u), mit u E U(A). Den Faktor 2 kann man auch weglassen:

(2.2) Lemma. Die reell-lineare Abbildung u f--4 Re( u) definiert einen Isomorphismus reeller Vektorräume U(A) --> V(A) und ist mit a vertauschbar:

++ U(A)

~

Beweis. Alles ist schon gesagt: Re: U(A) und ReA(u) = ARe(u), weil A reell ist.

U(A)

-=. (U(A) EB U(>')) n ~n,

U

f--4

1/2( u + u), D

Im Ganzen haben wir nun wieder eine Zerlegung, die reelle Jordanzerlegung

in a-invariante Unterräume, wobei unter den Aj zu jedem Paar konjugierter Eigenwerte genau einer auftritt. Es gibt folgende beiden Fälle:

Kapitel V. Die Jordansche Normalform

150

I. Fall. A ist reell. Dann hat V(A) eine Basis, für die alV(A) : V(A) ----; V(A) durch eine Matrix in Jordanscher Normalform (1.8) gegeben ist. 11. Fall. A ist nicht reell. Dann ist V(A) reell isomorph zu dem komplexen Vektorraum U(A) (und ebenso zu U(5.)), und zwar als a-Modul. Man kann eine komplexe Basis von U(A) wählen, für die a durch eine Jordanmatrix (1.8) gegeben ist. Insbesondere ist dirn V(A) gerade. Natürlich kann man im letzen Fall die komplexe Schreibweise durch Zerlegen in Real- und Imaginärteil in eine reelle Schreibweise verwandeln. Jeder komplexe Koeffizient a + ib ist dann als lineare Abbildung

c~ 1, i

f---4

C

a + ib, -b + ia

also als Matrix (~-!) zu lesen. Zum Beispiel das komplexe Jordankästchen (~ mit A = a + ib wird, als reell-lineare Abbildung gelesen, zu der Matrix

D

1

-b a

0

o

b

o a

Jedoch ist diese reelle Schreibweise nicht nützlich, und sie beraubt einen um den Gewinn, der darin liegt, dass V(A) für A 1- IR eine komplexe Struktur hat, für die a komplex linear ist. Physiker bevorzugen zurecht die komplexe Schreibweise. Übrigens ist V(A) = V(5.), man darf also in jedem Jordankästchen der beschriebenen Normalform A durch 5. ersetzen, und wie zuvor die Kästchen vertauschen. Bis auf dieses aber ist die beschriebene Normalform durch A eindeutig bestimmt. Das schließt man daraus, wie man die komplexe Normalform von A : C n ----; C n aus der beschriebenen reellen erhält: Man muss zu jedem Kästchen mit Eigenwert A 1- IR ein entsprechendes Kästchen mit Eigenwert 5. hinzunehmen; nämlich für den Summanden V(A) ~IR U(A) von V = IR n den Summanden U(A) EB U(5.) von U~Cn.

Der halbeinfache reelle Teil 'Y von a ist auf V(A) durch Multiplikation mit A gegeben, was für A 1- IR durch den reellen Isomorphismus V(A) ~ U(A) wie oben zu lesen ist. Wieder ist 'P = a - 'Y nilpotent und 'Y'P = 'P'Y.

§3

Die Komplexifizierung

Die Klassifikation der Endomorphismen eines reellen Vektorraumes, die wir kennengelernt haben, beruht darauf, dass man einen reellen Vektorraum als komplexen Vektorraum mit Konjugation ansieht. Den Übergang vom Reellen zum Komplexen haben wir durch Einführen einer Basis recht künstlich geschafft. Darauf

151

§3. Die Komplexifizierung

sollte es aber nicht beruhen, und in der Tat kann man einen reellen Vektorraum stets kanonisch komplexifizieren: (3.1) Die Komplexifizierung. Sei V ein reeller Vektorraum. Die Komplexifizierung Ve ist folgender komplexer Vektorraum:

Ve = V EB V mit C -Operation

(a

+ ib) . (v, w)

(av - bw, aw + bv),

=

für a, bE IR und (v, w) E Ve . Man hat

V

'----t

Ve,

v

f---7

(v, 0)

als Inklusion reeller Vektorräume, also i . (v, 0)

(0, v), V+iV,

Ve

und das motiviert wiederum die Konstruktion von Ve aus V. Der komplexe Vektorraum Ve hat die kanonische Konjugation

(3.2)

(v, w)

c: Ve ---... Ve,

f---7

(v, -w),

oder anders geschrieben:

c(v+iw)

v-iw -. (v+iw)

für v, w E V. Dann ist offenbar

V = {u E Ve

(3.3)

lu = u}.

Man hat den Real- und Imaginärteil

(3.4)

Re(u) = 1(u + u),

Im(u) = ~(u - u).

Eine reelle Basis von V erzeugt offenbar Ve über C und ist auch linear unabhängig, also eine komplexe Basis von Ve . Das ergibt sich, weil aus einer komplexen Linearkombination reeller Vektoren

in Ve durch Übergang zu Real- und Imaginärteilen die reellen Linearkombinationen n

LRe('\j). Vj = 0 j=l

n

und

LIm('\j). Vj = 0 j=l

152

Kapitel V. Die Jordansche Normalform

in V entstehen. Sind VI, ... ,Vn linear unabhängig über IR in V, so verschwinden alle Re(Aj) und Im(Aj), und daher alle Aj in C. Das Wesentliche ist, dass wir nicht einfach zu dem reellen Vektorraum IR n einen komplexen Vektorraum

--->

We,

W induziert die komplex-lineare u

+ iv

I--->

a(u)

+ ia(v),

und es gelten offenbar die Funktorgleichungen

(a 0 ßk

(idvk = idvc' Jede komplex-lineare Abbildung Ve a, ß E Horn IR (V, W),

a(v)

--->

=

ae

0

ße.

W e ist von der Gestalt 'Y = a + iß, mit

Re (ry(v)) , ß(v)

Im(ry(v)).

Mit anderen Worten

(3.6) Man kann bei einem komplexen Vektorraum die komplexe Struktur vergessen und nur die Operation von IR behalten. So entsteht aus einem komplexen Vektorraum U ein reeller Vektorraum F(U), und es ist offenbar als reeller Vektorraum (3.7)

F(Vc) = V EB V.

Auch F ist ein Funktor: Eine komplex-lineare Abbildung komplexer Vektorräume ist insbesondere eine reell-lineare Abbildung reeller Vektorräume. Bemerkenswerter ist der kanonische Isomorphismus

(3.8) für einen komplexen Vektorraum U. Der konjugierte Vektorraum [j zu einem komplexen Vektorraum U, der hier auftritt, ist wie folgt erklärt: Als reeller Vektorraum, insbesondere als Menge, ist U = [j, aber zu u E U sei der entsprechende Vektor in [j mit u bezeichnet. Dann ist die .. u)

für

u E U, A E v, also die Wurzeln des charakteristischen Polynoms XA (t), wenn A die Matrix von a für irgendeine Basis von V ist. Die Vielfachheit einer Wurzel A ist die Dimension von V(A).

2. Schritt. Sei A ein Eigenwert von a und rp = a - A id. Die Anzahl g (s) der Jordankästchen mit Eigenwert A und mehr als 8 Zeilen ist nach dem Beweis des Zerlegungssatzes

g(8) = dirn ker(rp I rpsV) = rg(rpS) - rg(rp8+1). Also: die Anzahl a(8) der entsprechenden Jordankästchen mit a(s) = g(8 - 1) - g(8), daher (6.1)

8

Zeilen ist

157

§6. Berechnen der Jordanschen Normalform

Wenn man also die Eigenwerte Al, ... ,Ak und für jedes j die Ränge der Potenzen von G

t.

' " J 9J' . ~ j

dass GT die i-te Spalte Lj tjgj hat. Entsprechend geht TG aus G durch Ausführen der entsprechenden Zeilenumformungen von G hervor, wie man formal der Gleichung TG = tCGT) entnimmt: Verwandle Zeilen in Spalten, führe Spaltenumformungen T aus, verwandle wieder Spalten in Zeilen. Eine Transformation G ----; TGT auszuführen, bedeutet also: Simultan elementare Spaltenumformungen und dieselben Zeilenumformungen an G durchzuführen.

(7.1) Satz. Sei V ein endlich-dimensionaler Vektorraum über Kund 'Y eine symmetrische Bilinearform auf V, dann besitzt V eine Orthogonalbasis für 'Y. Mit anderen Worten: Jede symmetrische Matrix G mit Koeffizienten in K lässt sich durch eine Transformation G ----; TGT, T E G L( n, K), also durch simultane Zeilen- und Spaltenumformungen, in eine Diagonalmatrix überführen. Beweis und Rechenverfahren in drei Schritten. (i) Angenommen in der Diagonale von G stehen nur Nullen. 0, so ist man fertig, sonst stehe an der Stelle (i, j) und (j, i) der Koeffizient Umformung: Addiere die j-te Spalte zur i-ten, die j-te Zeile zur i-ten. Als Ergebnis steht 2g an der Stelle (i, i):

Ist G 9 i=-

=

o.

(ii) Angenommen gl1

= 0, aber gii i=- O.

Vertausche die i-te Spalte mit der ersten, die i-te Zeile mit der ersten, das rückt gii an die Stelle (1,1). (iii) Angenommen gl1 i=- O. Räume durch Subtraktion von Vielfachen der ersten Spalte (Zeile) von den folgenden die erste Zeile (Spalte) von G aus. Man kommt auf die Form

und fährt induktiv mit G' fort.

o

189

§7. Affine Hauptachsentransformation

Soweit liefert das Rechenverfahren nur die Diagonalmatrix und die Existenz von T, aber man kann T mit bestimmen, indem man ähnlich wie bei der Berechnung der inversen Matrix vorgeht: Man schreibt G und die Einheitsmatrix E nebeneinander: GIE. Bei jeder simultanen Zeilen-Spalten-Umformung von G unterwirft man die rechte Matrix nur der entsprechenden Spaltenumformung. Die j-te Umformung hat dann die Wirkung Gj -

1

ID j- 1

f-->

tBjGj_1Bj

I Dj_1Bj =

Gj

IDj ,

mit Go = G, Da = E und B j E GL(n, K). Am Ende ist G s die Diagonalmatrix und D s = BI ... B s = T die gesuchte Transformation. Im Falle einer reellen positiv definiten Matrix ist das Verfahren das Gram-SchmidtOrthonormalisierungsverfahren, nur dass die Schritte (i), (ii) entfallen, weil 9ii notwendig positiv ist. Für K = C oder allgemeiner, wenn jedes Element des Körpers ein Quadrat ist, findet man eine Orthogonalbasis, für die in der Diagonale von G nur 0 oder 1 steht, denn ')'(>.v) = >.2 . ')'(v), man kann die Diagonalelemente von G noch um beliebige quadratische Faktoren #- 0 abändern. Ein (endlich-dimensionaler) Vektorraum V mit einer symmetrischen Bilinearform oder quadratischen Form')' heißt auch ein quadratischer Raum. Zwei quadratische Räume (V, ')'), (W,6) heißen isomorph oder die Formen affin äquivalent, wenn es einen linearen Isomorphismus T : V -> W gibt, so dass 60 T = ')'. Nach Einführen von Basen ist V = W = Kn, und die Formen sind durch Fundamentalmatrizen G, D gegeben. Die Isomorphie der Räume bedeutet tT DT = G, wenn T die Matrix von T ist. Der Rang eines quadratischen Raumes (V, ')') ist der Rang der Bilinearform ')', also der Rang einer zugehörigen Fundamentalmatrix G. (7.2) Folgerung. Ist in K jedes Element ein Quadrat, so sind zwei quadratische

Räume über K genau dann isomorph, wenn sie gleiche Dimension und gleichen Rang haben. Auf C n gibt es also bis auf lineare Transformation nur die quadratischen Formen z f--> + ... + z~, 0::; k ::; n.

zr

(7.3) Berechnen der affinen Normalform. Die Gleichung

+ 2tax + b = 0, x E K n , txGx + 2y tax + by 2 = 0 mit Matrix der quadratischen Form txGx

homogenisieren wir:

190

Kapitel VI. Geometrie

Diese bringen wir durch simultane Zeilen- und Spaltenumformung und Multiplikation mit einem Faktor =f:. 0 auf eine der Gestalten

(;) r)

(~) (~~)

mit Diagonalmatrizen D, D'. Dabei wählen wir die Transformation T so, dass sie die unendlich ferne Hyperebene y = 0 also L(el, ... , e n ) in sich transformiert. Also: die ersten n Zeilen und Spalten werden nur unter sich transformiert, nicht um Vielfache der letzten abgeändert. Jedoch wird die letzte Zeile und Spalte soweit möglich durch die vorhergehenden ausgeräumt. Ist sie nicht ganz auszuräumen, so entsteht der letzte Typ. Aus den drei entstehenden Gleichungen erhält man durch Einsetzen von y = 1 die affinen Typen

txDx

= 0, txDx = -1, tx'D'x' + 2x n

0,

x' E K n -

1.

Die Matrix der Transformation hat die Gestalt

und ist als affine Transformation

§8

x = Bx + q zu lesen.

Der topologische Typ der Quadriken

Unsere unmittelbare Anschauung reicht zwar nicht in höhere Dimensionen, und das Bildermalen würde schließlich mehr verwirren als aufklären. Dennoch kann man Einsicht in die Gestalt der Quadriken gewinnen, indem man sie durch andere, vielleicht einfachere Räume beschreibt. Ich will jetzt annehmen, dass Sie ungefähr wissen, was ein topologischer Raum ist, und dass eine Abbildung I : X --t Y zwischen topologischen Räumen ein Homöomorphismus ist, wenn I stetig ist und eine stetige Umkehrung 1-1 : Y --t X besitzt. Wenn so ein Homöomorphismus existiert, heißen die Räume homöomorph, und wir schreiben X ~ Y. Zwar können sie sich dann noch sehr verschieden dehnen und krümmen, aber immerhin. Wir wollen Quadriken bis auf Homöomorphie beschreiben. Die Homöomorphismen werden in ganz expliziten Formeln angegeben, sie sind tatsächlich differenzierbar, analytisch, algebraisch, so dass man nicht viel allgemeine Begriffe braucht, um diese besondere Situation zu verstehen. Beginnen wir mit den reellen affinen Quadriken. Es bezeichne (x, y) einen Punkt in ffi.n x ffi.m = ffi. n+ m, und (x,y,z) einen Punkt in ffi.n x ffi.m X ffi. = ffi.n+m+l. Nach (1.4) gibt es bis auf affine Transformation drei Typen von quadratischen

191

§8. Der topologische Typ der Quadriken

Gleichungen: wir nehmen an, dass die quadratische Form vollen Rang hat, sonst kommt nur ein Faktor lR. k zur Quadrik (Zylinder):

Ixl 2-lyl2 Ixl 2-lyl2 Ixl 2 -lyl2

(8.1)

z, 1,

o.

Seien Q(n, m, z), Q(n, m, 1), Q(n, m, 0) die zugehörigen Quadriken, also die Lösungsmengen der Gleichungen in lR.n +m +1 bzw. lR.n +m . Dann gilt:

Q(n, m, z) ~ lR. n +m .

(8.2)

In der Tat: Q(n, m, z) ist der Graph der Funktion z(x, y). Der Homöomorphismus ist durch (x, y, z) f---t (x, y) mit der Umkehrung (x, y) f---t (x, y, Ixl 2-IYI2) gegeben.

(8.3)

Sei nämlich r(y) J1+lyI2, dann ist sn-l X lR.m ~ Q(n,m,l), (~,y) f---t (r(y) .~, y) ein Homöomorphismus mit der Umkehrung (x, y) f---t (r(y)-l . x, y). Die dritte Gleichung lR. n +m , genauer:

Ixl 2 = IYl2

ist homogen, die Quadrik ist also ein Kegel in M

\ sn+m-I 2

Sei s~+m-I die Sphäre vom Radius 2 in lR. n+m um 0, und

K(n, m) = Q(n, m, 0) n s~+m-I. Dann ist Q(n, m, 0) die Vereinigung der von 0 ausgehenden Strahlen durch K(n, m), also, wie man sagt: Q(n, m, 0) ist der Kegel über K(n, m). Es genügt daher, K(n, m) zu beschreiben.

(8.4)

K(n, m) = Q(n, m, 0) n sn+m-I = sn-I

Das Produkt der Sphären wird dabei in lR. n x lR.m

=

X

sm-I.

lR. n +m gebildet.

In der Tat, K(n, m) ist die Menge der Punkte, die folgende beiden Gleichungen erfüllen:

Kapitel VI. Geometrie

192

Das heißt

Ixl 2=

1,

IYl2 =

1, und das definiert sn-l

X

sm-l.

Die Rechnung, die im Reellen (1.4) liefert, zeigt zusammen mit (7.2), dass es im Komplexen bis auf affine Transformationen nur die Typen von quadratischen Gleichungen

zf + ... + z; (8.5)

2 2 Zl + ... + zn 2 2 Zl + ... + Zn

w,

1,

°

gibt. Die komplexen affinen Quadriken wollen WIr entsprechend mit Q(n, w), Q(n, 1), Q(n,O) bezeichnen. Wie oben ist (8.6) Zur Berechnung von Q(n, 1) zerlegen wir Z = u + iv, u, v E IR n , in Realteil und Imaginärteil. Dann steht da vi + ... + = 1, 2i( Ul VI + ... + U n n ) = 0, also luI 2- Ivl 2 = 1, (u, v) = 0.

ur -

u;, - v;

v

Nun, {x E IR n IIxl2 = 1} definiert die Sphäre sn-l in IR n , und {y E IR n I (x, y) O} ist der Tangentialraum Txsn-l. Den Raum

=

nennt man das TangentialbÜlldel von sn-l.

Er besteht aus der disjunkten Vereinigung der Tangentialräume in allen Punkten von sn-l: TS- l = {x} x TxS n- l .

U

xES n -

1

Dennoch ist im Allgemeinen Tsn-l nicht zu dem Produkt sn-l X IR n - l homöomorph. Zum Beispiel gibt es für n = 2 keine stetige Abbildung, die jedem x E sn einen Tangentialvektor v(x) =f. von sn in x zuordnet. Wie dem auch sei, jedenfalls ist Tsn-l die Menge der Punkte (x,y) E IR n x IR n mit

°

Ixl 2 =

1,

(x, y)

=

0,

193

§8. Der topologische Typ der Quadriken und ganz analog zu (8.3) erhalten wir einen Homöomorphismus

Q(n,l)

(8.7) Nämlich, sei r(v)

=

TS n -

>=::;;

1.

Jl + Iv1 2, dann hat man die Abbildung TS n - 1 --> Q(n, 1),

mit der Umkehrung (u, v)

(x, v)

f--t

(r(v) . x, v)

(r(v)-lu, v).

f--t

Die Überlegungen zur Beschreibung von Q(n,O) sind ähnlich: Sei K(n) := Q(n, 0) n n - 1 , der Schnitt des Kegels Q(n,O) mit der Sphäre vom Radius 2 um den Ursprung. Für K haben wir die Gleichungen

si

+ ... + Zn2 = 0, IZlI2+ ... +lznI2 = 2. 2

ZI

Zerlegung in Real- und Imaginärteil

lul 2

Z

=

u

+ iv liefert:

Iv1 2, (u, v) = 2 lul + Ivl 2 = 2. =

0,

Das heißt also (8.8)

lul 2 =

1,

Ivl 2 =

1,

(u, v) = 0.

Allgemein nennt man ein k-Tupel von Vektoren (VI, ... ,Vk) in IR n mit IVj 12 = 1, (Vi, Vj) = 0, ein orthonormales k-Bein, und der Raum aller orthonormalen k-Beine in IR n heißt die Stiefelmannigfaltigkeit Vk,n- Was wir mit (8.8) ausgerechnet haben besagt also:

(8.9)

Q(n,O) n s~n-l

Anders gesagt, V2 ,n C TS n -

1

=

K(n)

>=::;;

V2 ,n'

ist der Raum aller Tangentialvektoren der Länge 1.

Beispiel. Ein orthonormales 2-Bein (v, w) in IR 3 lässt sich auf eindeutige Weise zu dem orthonormalen, positiv orientierten 3-Bein (v, w, v x w), also zu einer Matrix in SO(3) ergänzen, d.h.

K(3)

>=::;;

V2 ,3

>=::;;

SO(3).

Wieder ist Q(n,O) der Kegel aller vom Ursprung ausgehenden (reellen!) Strahlen durch K(n). Wie sehen die projektiven Quadriken aus? Im Reellen hat man die homogene Gleichung Ixl 2 = IYl2 in IR n+m , die auf s~+m-l das Produkt sn-l X sm-I definiert. Die in IRpn+m-l definierte Menge erhält man aus diesem Produkt durch Identifikation von (x, y) mit (-x, -y), also:

194

Kapitel VI. Geometrie

(8.10) Die projektive Quadrik zu sn-l

X

Ixl 2- lyI 2=

0 ist homöomorph zu

sm-l /(x, y)

rv

-(x, y).

Im Allgemeinen muss uns diese Beschreibung genügen. Ist aber m = 2 und n = 2k, so ist sm-l = SI C C und sn-l eCk, und man hat den Homöomorphismus K,:

S2k-l

X

SI ----; s2k-l

X

sI,

(w, ()

1-+ ( .

w, ().

Man hat das kommutative Diagramm:

(w,()

E

S2k-l x SI ----;:;: S2k-l

(-w, -()

E

S2k-l

I

1 X

X

1

SI ----;:;: S2k-l

X

SI

3

(w, ()

SI

3

(w, -()

I

Der Raum (S2k-l x SI )/(x, y) rv -(x, y) ist also homöomorph zu dem Raum (S2k-l x SI )/(x, y) rv (x, -y), somit zu S2k-l x IRp l ~ S2k-l X SI. Analog kann man die Gruppe SO = {I, -I} mit der Operation auf IR n durch Multipliktion, die Gruppe S3 = SU(2) und ihre Operation auf (C 2)k und die Menge S7 von Cayley-Zahlen und ihre Operation auf (IR 8 )k -- was wir noch nicht erklärt haben -- benutzen, und erhält:

(8.11) Satz. Ist m = 1, oder n = 2k und m = 2, oder n = 4k und m = 4, oder n = 8k und m = 8, so ist die reelle projektive Quadrik zur Gleichung Ixl 2-IYI2 = 0 in P( IR n x IRm ) homöomorph zu sn-l X IRpm-l. Dabei ist IRpl ~ sI.

zr

z;

Die komplexe projektive Quadrik zur Gleichung + ... + = 0 entsteht aus dem Schnitt K(n) der affinen Quadrik mit der Sphäre, indem man Punkte identifiziert, die unter der Operation von SI auf den Punkten z = u+iv der Quadrik ineinander überführt werden. Ein orthonormales 2-Bein (u, v) ist eine Orthonormalbasis der Ebene L( u, v) C IR n , und durch Transformationen mit Elementen von SI = SO(2) gehen aus dieser Basis alle positiven Orthonormalbasen der Ebene L(u, v) hervor, so dass die Punkte der projektiven Quadrik zur Gleichung + ... + = 0 genau den orientierten Ebenen in ]Rn entsprechen.

zr

z;

zr

Beispiel. Die komplexe projektive reguläre Quadrik z5 + + z~ = 0 ist homöomorph zu S2. Der Homöomorphismus bildet [z] = [u + iv] auf (u x v)/Iu x vi ab. Beachte, dass eine orientierte Ebene L( u, v) in ]R3 mit positiver Orthonormalbasis (u, v) eindeutig (nicht abhängig von der Wahl der Basis, nur von der Orientierung) durch ihren Normalvektor u x v E S2 gegeben ist. Für diesen Homöomorphismus gibt es eine angemessene rein algebraische Erklärung und Beschreibung: (8.12) Bemerkung. Die Abbildung Kpl ----; Kp2,

[XO,Xl]

1-+

[xÖ,xoxl,xi]'

ist injektiv, und ihr Bild ist die projektive Quadrik zur Gleichung YOY2 -

yr = O.

§8. Der topologische Typ der Quadriken

195

Beweis. In einem Punkt der Quadrik ist Yo -# 0 oder Y2 -# 0, also (aus Symmetrie) 0 oB dA Yo = 1. Dann hat der Punkt das eindeutig bestimmte Urbild [1, YI].

Für K = C ist dies die einzige reguläre Quadrik in C p2, sie lässt sich also linear + z~ = 0 transformieren (wie?). Für K = IR ist es die in die Quadrik z8 + Quadrik Y6 + y~ = 0, jeweils bis auf lineare Transformation. Die Bemerkung zeigt, dass diese Quadrik in beiden Fällen homöomorph zu K pI ist. Also zu S2 für K = C und zu SI für K = IR, wie wir ja auch gefunden haben. Eine Abbildung zurück, von einer nicht ausgearteten Quadrik M c K p2 nach K pI, kann man wie folgt beschreiben: Es sei M die Quadrik zur nicht ausgearteten quadratischen Form 'Y : K 3 ~ K. Weil 'Y den Rang 3 hat, verschwindet (die Fundamentalmatrix von) 'Y nicht auf einem Unterraum der Dimension 2, also enthält M keine Geraden:

yr -

zr

Wir nehmen nun an, dass M mindestens einen Punkt p enthält. Dann wählen wir irgendeine projektive Gerade K pI ~ LeK p2 so dass p ct L, und projizieren M von p aus auf L, wobei p selbst durch die Tangente in p projiziert wird. Also: wir definieren eine Abbildung 'fJ : M ~ L wie folgt:

~: 'fJ(q)

Auf jeder Geraden H durch p ist die Einschränkung von 'Y eine nicht triviale Quadrik, die den Punkt p enthält, und daher noch einen weiteren Punkt q (oder H ist die Tangente in p), und 'fJ(q) E L ist der Schnittpunkt von Hund L. Mehr rechnerisch und affin gesprochen: Ein quadratisches Polynom, das eine Wurzel p hat, hat entweder noch genau eine Wurzel q, oder die Wurzel p doppelt. So haben wir eine bijektive (stetige) Abbildung der Quadrik auf L ~ Kpi definiert. Wählt man die Quadrik wie in (8.12) und p = [0,0,1], L = {[YO,YI,Y2] I Y2 = O}, so ist diese Abbildung die Umkehrung der Abbildung in (8.12), denn [x, y] f---> [x 2, xy, y 2] f---> [x 2, xy] = [x, y], für x -# o. Wir schließen mit einer Anwendung auf die Determinantenfläche.

(8.13) Beispiel. Im Raum End K (K 2 ) ~ K 4 hat man die Quadrik zur Gleichung det(A) = O. Also für A = (~~) ist det(A) = ad - bc = O. Diese Gleichung ist linear äquivalent zu der Gleichung xi + x~ = + y~, wenn 2 -# 0 in K. Demnach folgt: Die Determinantenfläche {det(A) = O} c End lR (IR 2 ) ist homöomorph zum

yr

196

Kapitel VI. Geometrie

Kegel über dem Torus SI x sI. Die Spitze entspricht der Nullmatrix. Die Determinantenfläche {det(A) = O} C Endc(C 2) ist homöomorph zum Kegel über der Stiefelmannigfaltigkeit V2 ,4.

§9

Bewegungen

Bewegungen sind Abbildungen eines quadratischen Raumes in sich, die die "Abstände" zwischen Punkten erhalten. Nur das sollte man fordern, und die algebraischen Eigenschaften folgen auch allein hieraus, wie wir zeigen wollen. Sei Kein Körper der Charakteristik ungleich 2, also 2 -I=- 0 in K.

(9.1) Lemma. Seien V, W quadratische Räume über K mit quadratischen Formen ,,(, p, und sei tp : V ---; Weine Abbildung, so dass p(tp(x),tp(y))

=

"((x,y)

für alle x, y E V. Sei p nicht ausgeartet und tp(V) enthalte eine Basis von W. Dann ist tp linear. Beweis. Für beliebige x, y E V und A, p, E K müssen wir zeigen: tp(AX

+ p,y) =

Atp(X)

+ p,tp(y).

Nach Voraussetzung haben wir Elemente (bj I j E J) aus V, so dass (tp(b j eine Basis von W ist. Weil p nicht ausgeartet ist, genügt es zu zeigen: p(tp(AX + p,y) - Atp(X) - p,tp(y) , tp(bj ))

= 0 für alle

)

Ij

E

J)

jE J.

Die linke Seite ist p(tp(AX + p,y), tp(bj )) - Ap(tp(X) , tp(bj )) - p,p(tp(y) , tp(bj )) "(Ax+p,y,bj)-A"(x,bj)-p,"(y,bj ) = O.

=

0

(9.2) Satz. Sei V ein n-dimensionaler Vektorraum mit nicht ausgearteter quadratischer Form 'Y und sei f : V ---; V eine distanztreue Abbildung, d.h. "((J(x) - f(y))

=

"(x - y)

für alle x, y E V. Dann gibt es ein v E V und eine lineare Abbildung tp : V ---; V, so dass f(x) = tp(x) +v für alle xE V. Dabei ist v = f(O) und tp = f - f(O) durch f eindeutig bestimmt, und tp ist ein orthogonaler Endomorphismus des quadratischen Raumes V. Beweis. Wir definieren tp durch tp = f - f(O), dann ist tp(O) = 0, und wir müssen zeigen, dass tp linear ist. Die Voraussetzung besagt auch "((tp(x) - tp(y))

=

"((x - y),

§10. Quadriken und ihre Gleichungen und für y

Aber

= 0,

wegen ~(O)

= 0,

197

insbesondere

,(~(x)) - 2,(~(x),~(y)) +,(~(y))

,(x) - 2,(~(x), ~(y)) + ,(y) ,(x - y) = ,(x) - 2,(x, y) + ,(y). Also ,(~(x),~(y)) = ,(x,y), und der Satz folgt aus dem Lemma wenn wir noch zeigen, dass ~(V) eine Basis von V enthält. Ist aber (VI, ... ,vn ) eine Orthogonalbasis von V, so ist wegen ,(~(Vi)' ~(Vj)) = ,(Vi, Vj) auch (~(Vl,), ... , ~(vn)) ein Orthogonalsystem von V und daher eine Basis, und V besitzt eine Orthogonalbasis, siehe VI, (7.1). D So kann man also O(n) als die Gruppe der Isometrien, d.h. der distanzerhaltenden Abbildungen beschreiben, die den Nullpunkt festlassen. Ebenso ist der Satz auf die Lorentzgruppe anwendbar, sie besteht aus den Abbildungen, die die MinkowskiMetrik invariant lassen und den Ursprung fest lassen. Die unitären Endomorphismen von C n kann man so nicht charakterisieren, denn die Metrik bestimmt nur die reelle Struktur von C n = 1R. 2n mit der euklidischen Metrik Re(x, y). Das Skalarprodukt ist ja nicht komplex bilinear. Ist jedoch A E GL(n, C), so ist A E U(n) genau dann, wenn IAvl = lvi für alle V E C n. Dies entnimmt man leicht den Gleichungen:

IvI 2 + Iwl 2 + (v, w) + (w, v), Ivl 2 + Iwl 2 - i(v, w) + i(w, v), daher:

Also: eine die Norm erhaltende lineare Abbildung erhält auch das hermitesche Skalarprodukt. Wenn man z.B. einige Koordinaten konjugiert, erhält man eine normerhaltende Abbildung, die nicht komplex linear ist.

§10

Quadriken und ihre Gleichungen

Sei K ein Körper der Charakteristik ungleich 2, sei V = Kn+l und Q eine projektive Quadrik in P(V) = Kp n . Und zwar sei uns Q einfach als Menge von Punkten gegeben. Wir fragen, ob dadurch die quadratische Form, : x f-+ txfx, f : V -+ V*, deren Nullstellengebilde Q ist, schon bis auf einen Faktor festgelegt ist: bestimmt eine projektive Quadrik ihre Gleichung? Das ist in der Tat im Allgemeinen der Fall, und um es genauer sagen zu können, beginnen wir mit ein paar einfachen geometrischen Bemerkungen.

198

Kapitel VI. Geometrie

Wir haben der Quadrik Q = {[x]I,(x) = O} in Abhängigkeit von der gegebenen Gleichung ihre singuläre Menge 5 = {[x] I fx = O} zugeordnet. Also 5 = P{ker r), und ker f ist der Orthogonalraum von V bezüglich ,. Diese Menge 5 = 5 (Q) ist allein durch Q bestimmt:

(10.1) Bemerkung. Ein Punkt pE Q ist genau dann in 5, wenn für alle anderen q E Q die Gemde durch p und q ganz in Q liegt. Beweis. Letzteres gilt offenbar für die Punkte aus 5, denn ist fy = 0 und txfx = 0, und z = AX + MY, so ist tzfz = O. Ist aber p = [y] regulär, also fy =I=- 0, so ist H = {[x] I tyfx = O} eine Hyperebene, nämlich die Tangentialhyperebene an Q in p. Wählt man eine Gerade durch p, nicht in H, so ist sie in p nicht tangential zu Q, enthält also außer p noch genau einen Punkt aus Q, so dass die letztere Bedingung verletzt ist. Explizit: Sei die Gerade {[y + sz]1 sE KU {oo}}, dann ist ,(y + sz) = s2,(z) + 2s,(y, z), und das lineare Glied verschwindet nach Voraussetzung nicht. 0 Also: 5 ist die Menge der "Kegelspitzen" von Q. Der Beweis liefert uns zugleich eine geometrische Charakterisierung des Tangentialraumes von Q in einem regulären Punkt p.

(10.2) Bemerkung. Sei p E Q regulär. Eine Gemde durch p verläuft genau dann im Tangentialmum an Q in p, wenn sie entweder ganz in Q liegt, oder Q nur in p trifft. Alle anderen Gemden durch p treffen Q in genau zwei Punkten. 0 Also hängt der Tangentialraum nur von Q und nicht von der Gleichung ab. Weil die singuläre Menge ein projektiver Unterraum ist, folgt aus (10.1):

(10.3) Bemerkung. Genau dann ist Q ~t.

=

5, wenn Q ein projektiver Untermum 0

Damit kommen wir zu dem Hauptsatz dieses Abschnitts.

(10.4) Satz. Hat die projektive Quadrik Q c K p n einen regulären Punkt, so bestimmt sie die quadmtische Form, deren Nullstellenmenge sie ist, einde'l1tig bis auf einen skalaren Faktor. Beweis. Wir wählen die Koordinaten in K pn so, dass p = [eo] E Q regulär ist, und dass der Tangentialraum in diesem Punkt die zu tel orthogonale Hyperebene ist (wir dürfen n > 0 annehmen). Für die Matrix f einer quadratischen Form , : x f-+ txfx mit Nullstellenmenge Q bedeutet das

Also: die obere linke Ecke von f hat die Gestalt (Übrige Komponenten der ersten Spalte sind 0, weil feo =

ed.

199

§10. Quadriken und ihre Gleichungen

Bis auf einen Faktor ist dann c = 1, und man kann übrigens (simultane Zeilenund Spaltenumformung) die Koordinaten noch so legen, dass red E Q, also a = O. Nun müssen wir zeigen, dass eine symmetrische Matrix B, die insoweit wie r aussieht und auch Q definiert, gleich r ist. Es genügt, dies im Fall n = 2 zu zeigen: man schränke sich auf die Ebenen ein, die von [ea]' red, [eil oder von [eo],[ed,[ei +ej],2:::; i:::; n,l:::; j:::; n, aufgespannt werden. Zur quadratischen Form 'Y gehört dann eine Matrix 1

o d

~) ,

2b

und wir müssen zeigen, dass d, b durch die Menge {x I 'Y(x) = O} bestimmt sind. Dazu betrachte die Gerade t [1, s, ~s], s E KU {oo}. Die Gleichung 'Y(x) = 0 besagt für s auf Punkten der Geraden:

Diese projektive Gerade hat also außer [eal, s = 0, noch genau einen Punkt in Q für wie es ja sein muss, weil sie nicht tangential zu Q ist. Kennt man diesen Punkt, also diesen Wert von S-1 für zwei Werte aus K\ {O} von~, so sind dadurch d und b bestimmt. 0 Der ganze projektive Raum wird natürlich nur durch die verschwindende quadratische Form beschrieben. Ist Q eine Hyperebene, also die Nullstellenmenge einer Linearform a, so ist Q auch die Nullstellenmenge der quadratischen Form a 2 und dies ist bis auf einen Faktor die einzige quadratische Form, die genau auf Q verschwindet. Um das einzusehen, wählen wir die Koordinaten so, dass a(x) = Xa. Wenn dann die quadratische Form 'Y auf der Hyperebene {xa = O} verschwindet, so ist 'Y = Xa . ß für eine Linearform ß, und weil auch ß nur auf Q verschwindet, ist ß = c· xo. (10.5) Folgerung. Eine projetive Quadrik bestimmt ihre definierende quadratische Form eindeutig bis auf einen Faktor, es sei denn, die Quadrik ist ein projektiver Unterraum der K odimension mindestens zwei. Ist W = U EB V eine direkte Summenzerlegung von Vektorräumen und 'Y eine quadratische Form auf W mit Nullstellenmenge U, so verschwindet 'YIV nur im Ursprung. Dies ist eine orthogonale Zerlegung für 'Y, denn U ist der Kern der durch 'Y definierten linearen Abbildung V ---> V*; das bedeutet ja, dass P(U) die singuläre Menge von 'Y ist. Die linearen und projektiven Unterräume werden also dadurch zu Quadriken, dass man auf einem komplementären Unterraum eine quadratische Form definiert, die total anisotrop ist, d.h. nur auf 0 verschwindet. Im (formal)

200

Kapitel VI. Geometrie

Reellen sind das alle quadratischen Formen mit lauter positiven Eigenwerten und ihre Negativen. Ist '"'( total anisotrop auf Kr und gilt 0 # a # 1, so ist auch die Form x I---t total anisotrop, und für r > 1 kein Vielfaches von T Ist also ein projektiver Unterraum der Kodimension 2: 2 eine Quadrik, so bestimmt sie die definierende quadratische Form nicht eindeutig. '"'(( aXl, X2, ... ,X3)

Ein Körper heißt quadratisch abgeschlossen, wenn jedes Element des Körperes ein Quadrat ist. Das gilt z.B. in allen algebraisch abgeschlossenen Körpern, insbesondere in 0 nach Sylvester, und jedenfalls c = d 2 , und dAEOb),d#O. D Ist zum Beispiel '"'( die Minkowski-Metrik auf IR4 , also

so ist Ob) die Gruppe der Lorentztransformationen, Qb) der Lichtkegel, und genau dann bildet eine lineare Transformation den Lichtkegel auf sich ab, wenn sie Vielfaches einer Lorentztransformation ist. Ist aber K = IR und Index b) = Index (-'"'() , so existiert eine Transformation A mit '"'(oA = -,",(, und kein Vielfaches von A ist orthogonal, wenn '"'( # 0. Nun wollen wir einen Blick auf die Verhältnise im Affinen werfen. Hier bemerkt man sogleich einen Fall, in dem die singuläre Menge einer affinen Quadrik Q nicht allein durch die Menge Q bestimmt ist, sondern erst durch die zugehörige Gleichung:

§1O. Quadriken und ihre Gleichungen

201

(10.8) Hyperebenenfall. Sei 0: : x f---+ tax + b eine nicht konstante affine Funktion und Q = {x I o:(x) = O} die zugehörige Hyperebene. Dann ist Q mit der Gleichung 0: regulär, aber Q ist auch die Lösungsmenge der Gleichung 0:(X)2 = 0, und als solche ist Q überall singulär. 0 Es wird sich gleich zeigen, dass dieser Fall der einzige Ausnahmefall für die Übertragung der Sätze aus dem Projektiven ins Affine ist (es sei denn, der Körper hat genau drei Elemente, K = lF 3 ). Wir werden natürlich so vorgehen: Wir betten den affinen Raum A = Kn als affinen Teil in den projektiven Raum P = K pn+l ein, mit unendlich ferner Hyperebene H = {[xli Xo = O}:

p

= AuH.

Wir homogenisieren die Gleichung einer affinen Quadrik Q C A und erhalten dadurch eine zugehörige projektive Quadrik Q C P, mit Q n A = Q. Man nennt Q einen projektiven Abschluss von Q. Diese Erklärung benutzt nicht nur die Punktmenge Q, sondern wieder die Gleichung. Im Hyperebenenfall, oB dA ausgehend von einer linearen Gleichung o:(x) = o für Q, entsteht die Gleichung Xo . o:(x) = 0 für Q, also: Q = Q' U H, mit Q' = {x I o:(x) = O} c P; und ausgehend von der Gleichung o:(xf = 0 für Q entsteht dieselbe Gleichung 0:(X)2 = 0 für Q, also Q = Q' ist nur die zu Q gehörende projektive Hyperebene. Man kann eben dem affinen Bild nicht ansehen, ob sich die zweite Hyperebene im Unendlichen versteckt, oder durch Verdoppelung auf der ersten. Es beruhigt jedoch zu hören:

(10.9) Satz. Sei dirn A > 0 und Q C A eine affine Quadrik, die nicht in einer Hyperebene enthalten ist, dann gibt es genau eine projektive Quadrik Q C P mit Q n A = Q. Ist pE H, so ist P ~ Q genau dann, wenn es eine projektive Gerade durch p gibt, die Q in genau zwei Punkten trifft. Beweis. Wir wissen ja, dass es jedenfalls eine projektive Quadrik Q mit QnA = 0 gibt, und wir müssen nur zeigen, dass für jede solche das Kriterium des zweiten Satzes gilt. Nun, angenommen eine Gerade durch p E H trifft Q in genau zwei Punkten, so lägen mit p drei Punkte in Q und damit die ganze Gerade. Ihr affiner Teil enthält aber soviele Punkte wie K, also mindestens drei. Daher p ~ Q. Umgekehrt sei angenommen, p ~ Q. Vier Fälle sind möglich: (i) Eine Gerade durch p trifft Q in mindestens drei Punkten. Dann liegt sie ganz in Q, also p E Q, ein Widerspruch.

(ii) Keine Gerade durch p trifft Q, dann ist Q leer und liegt damit in einer Hyperebene, im Widerspruch zur Annahme. (iii) Jede Gerade durch p und einen Punkt q E Q trifft Q nur in q. Bezeichnen wir repräsentierende Vektoren mit demselben Buchstaben wie die repräsentierten Punkte in P, so bedeutet das für die quadratische Form " die Q

202

Kapitel VI. Geometrie beschreibt: Ist "((q) = O,"((q + )..p) = 0, so ist).. = O. Aber "((q + )..p) = 2h(q,p) + )..2"((p),"((p) i- O. Also folgt "((q,p) = 0 für alle q E Q, und {q I "((q,p) = O} ist eine Hyperebene.

(iv) Eine Gerade durch p trifft Q in genau zwei Punkten

~

dann sind wir fertig.

o (10.10) Folgerung. Eine affine Quadrik, die nicht in einer affinen Hyperebene enthalten ist, bestimmt ihre definierende quadratische Gleichung eindeutig bis auf einen Faktor. 0 Und welche affinen Quadriken gibt es nun, die in einer Hyperebene enthalten sind? Wieder sei A c P die Einbettung des affinen in den projektiven Raum, H die unendlich ferne Hyperebene, und Q = An Q für eine projektive Quadrik Q.

(10.11) Bemerkung. Sind alle affinen Punkte von Q singulär und Q i- 0, so ist Q vollständig singulär, also Q ein projektiver und Q sein affiner Unterraum. Beweis. Wäre pE HnQ regulär, so verbinde p durch eine Gerade mit einem q E Q. Die Gerade liegt nach (10.1) ganz in Q, ihr affiner Teil liegt in der singulären Menge S und enthält mindestens zwei Punkte, also liegt sie ganz in S, und (10.3) sagt ~.

0

Wie steht es mit der Umkehrung? Da gibt es den Hyperebenenfall und noch einen Sonderfall.

(10.12) Satz. Angenommen, die affine Quadrik Q liegt in einer Hyperebene U und enthält einen regulären Punkt p. Besitzt der Körper mindestens fünf Elemente, so ist Q = U (Hyperebenenfall (10.8)). Beweis. Wir zeigen H c Q. Dann sind wir im Hyperebenenfall, Q besteht nicht nur aus einer Hyperebene, also aus zweien, die eine ist H die andere heißt V, ihr affiner Teil V liegt in U, ist also gleich U. Nun zum Beweis von H C Q. Sei T die projektive Tangentialhyperebene an Q in p und U die projektive Hyperebene mit U n A = U. Dann haben wir im Unendlichen die Hyperebenen T OO = T n H und Uoo = UnH. Ist q E H \ (TOO U U OO ), so ist q E Q, denn die Gerade durch p und q ist in p nicht tangential zu Q, enthält also noch einen Punkt aus Q, aber keinen mehr aus U, also noch einen unendlich fernen, und das kann nur q sein. Also: mit Ausnahme von zwei Hyperebenen liegt ganz H in Q. Da möchte man nun mit einem Stetigkeitsargument schließen H C Q, und algebraisch geht das so: Ist q E Too U Uoo, so wähle man einen Punkt h E H \ (T OO U U OO ). Die Gerade durch q und h liegt weder ganz in T oo , noch ganz in U OO , hat also mit beiden höchstens je einen Punkt gemeinsam, und weil sie mindestens sechs Punkte hat, liegen vier in Q, also alle, insbesondere q. 0

§1O. Quadriken und ihre Gleichungen

203

Der in (10.12) ausgeschlossene Körper ist der Körper mit drei Elementen, und die Ausnahme betrifft in Wahrheit nur einen Fall. Ist nämlich bei Bezeichnungen wie im Beweis von (10.12) dimH 2 2, so ist Too n Uoo i 0, und weil jeder Punkt dieses Raumes auf einer Geraden in H liegt, die im Übrigen Too U Uoo nicht trifft, ist T oo n Uoo c Q. Wäre noch ein Punkt von Too U U oo in Q, so würde man durch geeignete Geraden gleich Too U Uoo c Q schließen, also H c Q.

/

/

/ ,/

/

/

/

/

/

/

/

,,

,,

,,

,,

,,

" QnH

Die Situation muss also aussehen, wie die Figur zeigt, insbesondere muss Q n H die Vereinigung von zwei Hyperebenen sein, also vom Typ xy = 0, und dann ist Q vom Typ xy = 1 oder xy = 0, und in beiden Fällen liegt es nicht in einer Hyperebene. Damit bleibt nur der Fall dirn H = 0 oder dirn H = 1. Der erste führt nicht zu einer Ausnahme, aber in der projektiven Ebene über dem Körper mit drei Elementen hat man die Quadrik zur Gleichung (10.13) Sie besteht aus den vier Punkten [eo], [eI], [e2], [eo + el + e2] des projektiven Standardkoordinatensystems. Man kann für H die Gerade durch zwei Punkte wählen, die beiden anderen sind dann eine affine Quadrik mit zwei Punkten in K 2 • Damit kann man natürlich auf K p2 auch beliebige vier Punkte PI, ... ,P4 in allgemeiner Lage als Quadrik Q erhalten. Legt man H durch P3,P4, so ist Q = {Pl,p2}' Man kann aber statt P3, P4 auch je zwei andere Punkte auf H wählen, die nicht auf der Geraden durch PI, P2 liegen. Das gibt drei Quadriken Q mit Q n A = O. Dieser Sonderfall und der Hyperebenenfall sind die einzigen, wo Q nicht durch Q bestimmt ist. Wir fassen zusammen: (10.14) Satz. Ist die affine Quadrik Q c Kn in einer Hyperebene enthalten, so ist sie entweder ein echter affiner Teilraum von K n , oder n = 2, K hat drei Elemente, und Q besteht aus zwei Punkten. In diesen Fällen ist die Gleichung der Quadrik nicht durch die Quadrik bestimmt. 0

Zu diesem Paragraphen vergleiche [Gruenberg, Weir].

204

§11

Kapitel VI. Geometrie

Aufgaben

1. Seien P, q E ]R2. Zeige: {x E ]R2 I Ix - pI 2 = Ix - q12} ist eine Gerade und {x E ]R2 I Ix - pi + Ix - ql = I} eine Ellipse. Ist U c ]R2 eine Gerade und P ~ U, so ist

{x

E ]R2 Ilx - pI 2 = min{lx - ul 2 I U E U} }

eine Parabel.

°

2. In ]R3 sei die Sattelfläche Q durch die Gleichung x 2 - y2 + Z = gegeben. Zeige, dass es für jeden Punkt P E Q genau zwei verschiedene Geraden gl , g2 gibt mit p E gl C Q, P E g2 C Q. Löse die gleiche Aufgabe auch für das einschalige Hyperboloid x 2 + y2 - Z2 = 1.

3. Wie lauten die Normalformen der Kegelschnitte, die im ]R2 durch die Gleichungen x 2 + 3xy + y2 + X - 2y - 1 0,

+ 6xy + y2 - 1 x 2 - 4xy - 4y 2 + Y x2

0, 0,

gegeben werden? 4. Im ]R3 seien Geraden g, h, k durch folgende Gleichungen gegeben: g : x = 0, y = 0, h : x = 1, z = 0, k : y = 1, z = 1. (a) Zeige, dass die Geraden paarweise windschief sind (d.h. paarweise leeren Durchschnitt haben und nicht parallel sind). (b) Bestimme eine Fläche 2. Ordnung, die g, hund k enthält. (c) Bringe die Gleichung der Fläche in metrische Normalform. 5. Sei K ein Körper, n E N \ {O}, i E {O, ... ,n} und Ui = {[xo: ... : xnl E K pn I Xi =f. O}. Überlege, ob Ui eine Hyperebene in K pn ist und zeige: (a) Durch Ui

---->

Kn,

[XO:

••• :X n

Xo Xi-l 1 1--+ ( , ••• , - - , Xi

Xi

Xi+l

, ••• ,

Xi

xn )

,

Xi

ist eine bijektive Abbildung erklärt.

(b) u~=o Ui = Kpn. (c) Die Abbildung t: K n ----> Kpn, injektiv, und es gilt L(Kn) = Uo.

(Xl, ... ,X n ) 1--+

[1:

Xl: ... : X n ],

ist

6. Sei 'P eine Projektivität einer projektiven Ebene P(V), die eine Gerade G in P(V) punktweise festlässt. Beweise, dass es ein Po E P(V) gibt, so dass für jedes pE P(V) die Punkte Po,P, 'P(p) auf einer Geraden liegen. (G heißt Achse und Po Zentrum von 'P).

§11. Aufgaben 7. Die Elemente

205

f

E

PG L(2,!.C) bezeichnen wir wie in (4.3) durch az +b z ---;-cz +d '

wobei a, b, c, d E !.C, ad-bc =I=- 0, !.Cpl = !.C U{ oo}. Zeige, dass man jedes solche f durch Hintereinanderausführung von Translationen z f-+ z + b, b E !.C, Drehstreckungen z f-+ az, a E !.C \ {O} und "Kreisspiegelungen" z f-+ ~ erhält. 8. Zeige, dass jedes f E PGL(2,!.C) die Menge der Kreise und Geraden von !.Cp l in sich überführt. Hinweis: Kreise und Geraden in !.Cpl genügen genau den Gleichungen alzl 2 + bz + bz + c = 0, wobei a, cE lR, Ibl 2 - ac > und z die konjugiert-komplexe Zahl zu z ist.

°

9. Gib ein f : !.Cpl ---; !.Cpl an, das die obere Halbebene H = {z E !.C auf das Innere des Einheitskreises E = {z E !.C Ilzl < I} abbildet.

Iz > o}

10. Sei M eine nicht ausgeartete Quadrik und X eine Gerade in der projektiven Ebene. Von jedem Punkt pE X errichte (soweit vorhanden) zwei Tangenten an M und verbinde ihre Berührpunkte durch eine Gerade Y(p). Zeige: Alle Y(p),p E X, schneiden sich in einem Punkt.

11. Sei s : lRpl x lRpl ---; lRp3 die Segre-Einbettung. Gib eine Hyperebene He lRp3 an, so dass s-l(H) = lRpl x {p} U {p} X lRpl für ein pE lRpi ist. In diesem Fall beschreibe einen Homöomorphismus

12. Sei s wie in Aufgabe 11. Gib eine Hyperebene H C lRp:l an, so dass s-I(H) = {(p,p) 1 p E lRpl}. Beschreibe einen Homöomorphismus

13. Seien PI), PI, P2, P3 vier Punkte aus !.Cpl = !.C U{00 }. Zeige: Po, PI, P2, P:l liegen genau dann auf einem Kreis, wenn ihr Doppelverhältnis D(Po,PI ,P2,P3) reell ist.

Kapitel VI. Geometrie

206

14. Für die nicht ausgeartete Quadrik Q C lR'.p2 gib Gleichungen für die unendlich ferne Hyperebene H explizit an, so dass Q \ H C lR'.p2 \ H = lR'.2 jeweils eine Ellipse, Parabel bzw. Hyperbel ist. 15. Für n = 1,2,4 gib Homöomorphismen

Q(n, 1) ::::: 5 71 -

j

X lR'.n-l

explizit an. 16. Sei Q C K p2 eine reguläre quadratische Kurve, und p E Q. Zeige: Auf der Tangente an Q in p liegt kein weiterer Punkt von Q, auf jeder anderen projektiven Gerade durch p liegt noch genau ein Punkt aus Q. 17. Seien (V, ,) und (W, p) endlich-dimensionale quadratische Räume über dem Körper K der Charakteristik i- 2, und seien, und p regulär. Sei tp : V -+ W distanztreu (p(tp(x) -tp(y)) = ,(x-y)). Zeige: Ist tp bijektiv, und tp(O) = 0, so ist tp linear. 18. Berechne die affine Normalform der Quadrik Q C lR'.4, die durch die folgende Gleichung gegeben ist

+ 4XjX3 + 6X1X4 + 2X2X3 + 4X2X4 + x1 + 4X3X4 + 3x~ +Xj + 2X2 + X3 + 2X4 + 4 = 0 und bestimme die zugehörige Transformation x = Bx + q. Sei K ein Körper mit 2 i- 0 und N eine projektive Quadrik in K pn, 2XjX2

19.

die durch eine reguläre quadratische Form gegeben ist. Zeige: Enthält N einen Punkt, so enthält N mindestens 2 Punkte.

20. Sei M eine affine Quadrik in Kn und H C Kn ein affiner Unterraum, also H = q + U für einen Untervektorraum U von K n . Dann ist M n H eine Quadrik in H ~ U. Sei nun p regulär in Mund H = Hp(M) die Tangente von M in p. Kann p dann ein regulärer Punkt von Mn H in H sein? 21. Die Quadrik Q in Kn sei durch eine reguläre quadratische Form gegeben, und sei U ein Untervektorraum von Kn mit U C Q. Dann ist dimK(U) :S n/2. 22. Ist im Fall von Aufgabe 21 nun dimK(U) = n/2, so zeige, dass die quadratische Form für eine geignete Basis beschrieben wird durch (~~), E = Einheitsmatrix. 23. Sei, eine reguläre quadratische Form auf einem endlich-dimensionalen Vektorraum V über K mit 2 i- 0, und sei

Oh)

=

{A E EndK(V) I ,(Ax, Ay)

=

,(x, y)}

die zugehörige orthogonale Gruppe. Welche Werte kann det(A) für A E Oh) annehmen? Was könnte man hierüber aussagen, wenn, nicht regulär wäre?

§11. Aufgaben

207

24. Mit Voraussetzung von Aufgabe 23 gib eine explizite Beschreibung an von

{A E Ob) I det(A) = 1 und für ,),(Xl,X2) =

xi -

an

~

I},

A = (aij),

x§ auf IR?, die hyperbolische Ebene.

25. Mit Voraussetzung von Aufgabe 23 beschreibe

{A E Ob) I det(A)

für ')'( Zl, Z2)

=

= I}

zr + z~ in C 2. Dies ist eine Quadrik!

Beantworte die entsprechende Frage für den Körper lF3 mit 3 Elementen statt C.

26. Sei V ein n-dimensionaler reeller Vektorraum. Bestimme die Normalform folgender quadratischer Gleichung, also den Typ der Quadrik, für X in EndK(V):

i) Spur(X 2) = O. ii) (Spur(X))2

= O.

iii) Sei j(X) der Koeffizient des charakteristischen Polynoms Xx(t) bei t n - 2 . Bestimme den Typ für j(X) = O. Hinweis: 2· j(X)

= (Spur(X))2 - Spur(X 2). Warum?

27. Sei q eine quadratische Form auf dem endlich-dimensionalen Vektorraum V über dem Körper K von Charakteristik =I- 2, und seien al, ... , a r linear

unabhängige Linearformen auf V. Zeige: Die quadratische Form Q auf V x Kr, mit Q(V,y) = q(v)+Ylal(v)+"'+Yrar(v)

hat gleichen Korang und gleichen Index wie q I {al

= ... = a r = O}.

Kapitel VII

Tensorrechnung Nu bin ich erwachet, und ist mir unbekant Daz mir hie vor was kündic als min ander hant.

Hier erkläre ich einen Kalkül der linearen, eigentlich der multilinearen Algebra, der auch in der Physik überall auftritt und wichtig für die Analysis ist. Ich beginne aber mit einer abstrakten Betrachtung.

§1 Kategorien und Funktoren Schon mehrfach sind uns diese Wörter begegnet: Sie beschreiben die grundlegende Form und Struktur, in der Mathematisches sich heute darstellt. Auch diese kann man wieder mathematisch fassen: Eine Kategorie K besteht aus einer Klasse Ob(K) von Objekten und zu je zwei Objekten X, Y E Ob(K) aus einer Menge von Morphismen HomJC(X, Y), deren Elemente durch j : X ----+ Y bezeichnet werden, so dass gilt: (i) Für j : X ----+ Y und g : Y ----+ Z hat man eine Komposition go j : X und diese, wo sie definiert ist, ist assoziativ: X

----+

f

Y

----+ 9

Z

----+ h

W,

(h

0

g)

0

j = h 0 (g

0

----+

Z,

j).

(ii) Zu jedem Objekt X E Ob(K) hat man die Identität id x E HomJC(X, X), so dass für alle j, g mit Y --+ X --+ Z gilt: id x 0 j = j, go idx = g. f

9

Beachte: Eine Klasse ist meist keine Menge, z.B.: alle Mengen bilden keine Menge, wohl aber eine Klasse. Man braucht hier ein neues Wort, um nicht in logische Schwierigkeiten zu geraten. Näher darauf einzugehen lohnt jetzt nicht.

T. Bröcker, Lineare Algebra und Analytische Geometrie © Birkhäuser Verlag 2003

210

Kapitel VII. Tensorrechnung

Aber für zwei Objekte X, Y ist Hom(X, Y) eine Menge, womit man alles machen darf, was man mit Mengen macht. Beispiele. (i) Die Kategorie Ens der Mengen (Objekte) und beliebigen Abbildungen X Y als Morphismen.

---->

(ii) Die Kategorie der Gruppen und Homomorphismen. (iii) Die Kategorie der abelschen Gruppen und Homomorphismen. (iv) Die Kategorie der Vektorräume über Kund K-linearen Abbildungen. (v) Die Kategorie der quadratischen Räume und orthogonalen Abbildungen. (vi) Die Kategorie der unitären Räume und unitären Abbildungen. (vii) Eine Gruppe G ist eine Kategorie mit nur einem Objekt; die Elemente sind die Morphismen. (viii) Die Kategorie der topologischen Räume und stetigen Abbildungen. Soweit konnte man die Objekte stets als Mengen mit zusätzlicher Struktur, die Morphismen als strukturerhaltende Abbildungen ansehen. Aber das muss nicht so sein: Beispiel. Die Kategorie, deren Objekte die Gruppen sind, und deren Morphismen G ----> H die Konjugationsklassen [1l von Homomorphismen 1 : G ----> H sind. Also die Äquivalenzklassen unter der Äquivalenzrelation

h '" 12

~

es gibt ein

hE H

mit

hhh- 1

= h

Manches, was wir gewohnt sind, ist nicht in jeder Kategorie sinnvoll, z.B. muss ein Objekt keine Elemente enthalten, usw. Man kann aber in einer Kategorie sagen, was ein Isomorphismus ist: Ein Morphismus 1 : X ----> Y ist ein Isomorphismus, wenn es einen Morphismus 9 : Y ----> X gibt, so dass

10

9

= id y , go 1 = id x

·

und damit dann auch was bewiesen wird, zeigen wir die wichtige (1.1) Bemerkung. Sei 1 : X ----> Y ein Morphismus in K, der einen Rechtsinversen und einen Linksinversen hat; also: es gibt g, h : Y ----> X, so dass 1 0 9 = id y , h 0 1 = id x . Dann ist 9 = h und also 1 isomorph.

Beweis. Es ist h

= ho idy = ho (f 0 g) = (h 0 f) 0 9 = idx 0 9 = g.

o

§1. Kategorien und Funktoren

211

Das zeigt zugleich die Eindeutigkeit des inversen Morphismus 9 in der Definition eines Isomorphismus. Beziehungen zwischen Kategorien werden durch Funktoren beschrieben. Das sind gewissermaßen Homomorphismen zwischen Kategorien. Ein kovarianter Funktor F : A ==} 13 zwischen den Kategorien A und 13 besteht aus: (i) einer Zuordnung F(A) E Ob(13) zu jedem Objekt A E Ob(A); (ii) einer Abbildung F : HomA(A 1 , A 2 ) Objekte A 1 ,A 2 E Ob(A),

----)

HomB(F(A 1 ), F(A 2 )) für je zwei

so dass gilt: (iii) Für jedes Objekt A von A ist F(idA) (iv) F(f

0

g) = F(f)

0

= idF(A).

F(g) für alle f,g E HomA(A 1 ,A2 ).

Das sind kovariante Funktoren, sie erhalten die Richtung der Pfeile. Kontravariante Funktoren kehren sie um, statt (ii) und (iv) heißt es

(ii)' F: HomA(A 1 , A 2 ) (iv)' F(f

0

g) = F(g)

0

----)

HomB(F(A 2 ), F(A 1 )).

F(f).

(1.2) Bemerkung. Funktoren bilden Isomorphismen auf Isomorphismen ab.

Beweis. Gilt X ----) Y ----) X, gf = id x , fg = idy , so F(g)F(f) F(f)F(g) =

J idF(y).

9

= idF(x), D

Beispiele: Es gibt viele "Vergissfunktoren" , z.B. C -Vektorräume ==} lR-Vektorräume ==} Abelsche Gruppen ==} Mengen. Auch der offenbare Funktor (Gruppen und Homomorphismen) ==} (Gruppen und Konjugationsklassen von Homomorphismen) ist ein Vergissfunktor, aber beachte, dass man von der letzteren Kategorie keinen offenbaren Vergissfunktor in die Kategorie der Mengen hat. Dies waren kovariante Funktoren, jetzt einige Kontravariante: K -Vektorräume ~ K - Vektorräume, V f==* V*, f f==* 1*, der Übergang zum Dualen. Mengen ==} K-Vektorräume, X f==* Map(X, K) und (f : X ----) Y) f==* (Map(Y, K) ----) Map(X, K), a t--+ a 0 f). Ist K eine Kategorie und U ein fest gewähltes Objekt, so hat man den kovarianten und den kontravarianten Funktor von K in die Kategorie der Mengen, gegeben durch

Hom(X,U)

Hom(U,X)

1'1'>-+ Jo'P Y

Hom(U,Y)

und

1'1'>-+'1'0 9 Y

Hom(Y,U)

212

Kapitel VII. Tensorrechnung

Der Morphismus F(g) ist der durch F von g induzierte Morphismus. Ein Funktor zwischen Kategorien von abelschen Gruppen heißt additiv, wenn die Horn alle abelsche Gruppen sind, und F: Hom(U, V) -+ Hom(F(U), F(V») em Homomorphismus. Entsprechend linear für K -Vektorräume. (1.3) Satz. Ist F : A

===}

B additiv (K-linear), so ist F(U EEl V)

F(U) EEl F(V),

~

und der Isomorphismus ist natürlich (vertausch bar mit induzierten Abbildungen). Beweis. Die Summenzerlegung von U EEl V liefert Morphismen ---; V,

---; U, Pl

so dass: Pli l

P2

= idu , P2i2 = idv , P2il = 0, id uEflV = ilPl + i2P2·

= 0,

Pli2

Wendet man nun den (sagen wir mal) kovarianten Funktor F an, so gelten für F(i l ), F(i 2), F(pd, F(P2) die analogen Gleichungen. Also hat man den Isomorphismus und seinen Inversen:

Die Zusammensetzungen sind (~i~~D (F(i l ),F(i2»)

(F(i l ), F(i 2»)

(;~:~D

=

F(i1Pr) F(id)

+ F(i 2P2)

=

= G~I i~) =

F(ilPI

+ i2P2)

o

id.

Das sind Beispiele für den so genannten abstract nonsense in der Mathematik.

§2

Das Tensorprodukt von Vektorräumen

Wir betrachten Vektorräume über einem festen Körper K, versehen mit einer Basis (eI, ... e n ). Die Komponenten bezüglich der Basis schreiben wir dann oben:

Die duale Basis dazu sei (e\ ... , en ), also ei (ej) Vektoren des Dualraums:

8}, und wir schreiben die

§2. Das Tensorprodukt von Vektorräumen

213

Eine lineare Abbildung notieren wir entsprechend:

Die Transformation der Koeffizienten ist dann

(AX)i

=

Lajxj . j

Die Notation ist so gemacht, dass man an der Position der Indices sieht, ob es sich um kontravariante Vektoren (in V) oder kovariante Vektoren (Linearformen in V*) handelt, und man sieht, dass über zugleich oben und unten auftretende Indices stets summiert wird. Daher die Einsteinsche Summenkonvention, die Summenzeichen wegzulassen und statt Li xiei einfach xiei zu schreiben. Meint man noch, dass die Basen sich von selbst verstehen, so schreibt man für den Vektor x einfach Xi und eben für Ax ebenso a~xj. Aber ich will die Summenzeichen lassen. Nun zum Tensorprodukt. Wir wollen bilineare Abbildungen V xW

~

U,

(v,w)

~

a(v,w)

zwischen Vektorräumen studieren. Also solche, für die a(A·v+J.L·v',w) = A·a(v,w)+J.L·a(v',w)

für alle A, J.L E K, v, v' E V und w E W, und analog in der zweiten Variablen. Dabei ist U ein Vektorraum. Wir stellen fest: Ist a so eine bilineare Abbildung und tp : U ~ U' eine lineare Abbildung von Vektorräumen, so ist auch die Abbildung tp 0 a : V X W ~ U' bilinear. Das bringt uns darauf, eine universelle bilineare Abbildung zu suchen, aus der alle anderen durch Anschließen von linearen Abbildungen hervorgehen. (2.1) Definition. Das Tensorprodukt von V und W ist ein Vektorraum V ® W über K, zusammen mit einer bilinearen Abbildung K,:

VxW~V®W,

(v,w)~v®w,

die folgende universelle Eigenschaft hat: Zu jeder bilinearen Abbildung

gibt es genau eine lineare Abbildung

tpa :

V ®W

~

X, so dass

VxW~V®W

a =

tpa

0 K,.

Kapitel VII. Tensorrechnung

214

Gibt es so eine bilineare Abbildung", und so einen Raum V ® W? Und sind sie eindeutig bestimmt? Zunächst das Letztere. Eindeutigkeit. Angenommen wir hätten zwei solche universelle bilineare Abbildungen, etwa so notiert: VxW~V®W

~~Kli~K V0W Nun, wählt man in der universellen Eigenschaft von", die Abbildung aals K" so erhält man 'Pi

(U ® V) ® W,

v®w~w®v, u ® (v ® w) ~ (u ® v) ® w.

Man kann das Tensorprodukt als assoziativ auffassen und den Isomorphismus (2.7) zur Identifikation von u®(v®w) mit (u®v)®w benutzen, muss das aber nicht. Was man jeweils tut hängt davon ab, ob man gerade assoziative Produkte studieren will, oder nicht assoziative, wie z.B. das Kreuzprodukt. Man hat den wichtigen kanonischen Isomorphismus

(2.8) mit der Umkehrung v

~

1 ® v. Beachte:

1 ® A· v

=

A· (1 ® v)

=

A ® v.

Benutzen wir das assoziative Tensorprodukt, so können wir aus dem Vektorraum V die Tensoralgebra T(V)

(2.9)

= Ve ü ) EB V(1) EB V( 2 ) EB ...

mit V(O) := Kund V(j) = V ® ... ® V, j Faktoren, bilden. Durch das offenbare Produkt V(j) ® V(k) ----> V(j+k) wird dies zu einer assoziativen Algebra über K. Jede bilineare Abbildung lässt sich als Abbildung eines Tensorprodukts lesen. Einige wichtige Beispiele: (2.10)

e: HomK(V,W)®V---->W,

a®v~a(v),

die Evaluation,

(2.11)

HomK(V, W) ® HomK(U, V)

---->

HomK(U, W),

a®ß~aoß

die Komposition. Ich will die Liste nicht uferlos fortsetzen, sondern komme unmittelbar zu wichtigen Formeln, die im Rechenkalkül der Physiker grundlegend sind. Ich erinnere an den Dualraum V* = HomK(V, K). Man hat die kanonische lineare Abbildung (2.12)

K: V* ® W* ----> (V ® W) * ,

a ® ß ~ (v ® w ~ a(v) . ß(w)).

§2. Das Tensorprodukt von Vektorräumen

217

Die rechte Seite der unteren Zeile meint die Linearform, die v 0 w auf a( v) . ß( w) abbildet. In Basen (ei, ... ,em ) von V und (ei, ... ,en ) von W und den oben indizierten entsprechenden Dualbasen heißt das:

Mit anderen Worten: {e j 0 ei I j = 1, ... , m; i = 1, ... , n} geht gerade auf die duale Basis der Basis {ej 0 ed von V 0 W. Das besagt:

(2.13) Satz. Für endlich-dimensionale Vektorräume ist die kanonische Abbildung V* 0 W* --+ (V 0 W)* in (2.12) ein Isomorphismus. 0

K, :

Wir wollen diesen Isomorphismus als Gleichheit lesen. Eine zweite wichtige Zutat des Kalküls ist die kanonische linare Abbildung:

(2.14)

V* 0 W

--+

HomK(V, W),

a0 w l---+(vl---+a(v).w).

In Basen wie oben heißt das

Das heißt also, der Tensor

(x;)

Lx;ej0ei i,j

geht auf die lineare Abbildung

zur Matrix (x;). Das zeigt explizit:

(2.15) Satz. Für endlich-dimensionale Vektorräume ist die kanonische lineare Abbildung V* 0 W --+ HomK(V, W) in (2.14) ein Isomorphismus. Nach Wahl von Basen bildet sie den Tensor Li,j xje j 0 ei auf die Matrix (x;) ab. 0 So können wir für endlich-dimensionale Vektorräume alle Horn' s vergessen, man hat nur V, V* , ... und Tensoren. Verstehen sich (hoffentlich!) die Vektorräume und die Basen, so kann man einen Tensor einfach durch seine Komponenten beschreiben: (xj~·.·.:j~) E VI 0··· 0 Vk 0 wt 0··· 0

Wr

Zu jedem oberen Index i v gehört ein Basiselement von Vv , zu jedem unteren ein duales Basiselement von im Tensorprodukt.

W;

jv

218

Kapitel VII. Tensorrechnung

Entsprechend werden diese Komponenten transformiert: Transformiert man die Basis des v-ten Faktors Vv , und ist (t;) die Matrix der Transformation, so wird der Tensor mit Komponenten

(x··· j ···) ,

j

jv ,

in den neuen Koordinaten durch

beschrieben, und hier ist über j zu summieren. Für untere Indices geht es entprechend mit der transponierten Matrix (t{). Hier setze ich der Einfachheit halber voraus, dass mit Hilfe von (2.6) die Faktoren des Tensorprodukts so geordnet worden sind, dass erst die Räume und dann die Dualräume kommen. Nach dieser Beschreibung ist für einen endlich-dimensionalen Vektorraum V insbesondere EndK(V) = HomK(V, V) = V* Q9 V, und nach (2.10) mit W

=

V hat man die kanonische lineare Abbildung

Spur: EndK(V)

=

HomK(V, K) Q9 V-=.. -->K

(2.16) i,j

i,j

Im Tensorkalkül drückt sich solche Spurbildung in geeigneten Faktoren· .. Q9 V* Q9 ... Q9 V Q9 ... dadurch aus, dass man in dem Tensor (xj::·.·.~~) einen passenden oberen Index mit einem passenden unteren gleichsetzt, was dann so zu lesen ist, dass man über diesen Index zu summieren hat. Diese Operation nennt man auch Verjüngen des Tensors. Schließlich, ohne es hier zu verfolgen, noch ein Kommentar zur Komplexifizierung. Sei V ein Vektorraum über K und sei Kein Teilkörper von L. Man muss dann Klineare oder -bilineare von L-linearen bzw. -bilinearen Abbildungen unterscheiden. Entsprechend notieren wir am Tensorprodukt den relevanten Körper und schreiben etwa V Q9K W oder V Q9L W wo beides sinnvoll ist. Damit kommen wir zur Erklärung: Sei K c Lein Teilkörper und V ein Vektorraum über K. Dann ist L Q9K V ein Vektorraum über L durch die L-Operation

Bezeichnet F den Vergissfunktor von L-Vektorräumen zu K-Vektorräumen, so ist F(L Q9K V) = F(L) Q9K V.

§3. Alternierende Formen

219

Man hat den kanonischen Isomorphismus (2.17)

für jeden L-Vektorraum W. Die Abbildungen sind so definiert:

HomdL Q9K V, W)

3

a

1--+

= alV E HomK(V, F(W)), ,8P..Q9KV) = )..·ß(v).

al(K Q9K V)

HomK(V,F(W)) 3131--+,8,

mit

Für K = lR und L = C hat man die Komplexifizierung C Q9 IR V eines reellen Vektorraumes V.

§3

Alternierende Formen

In diesem Abschnitt sei der Körper K von der Charakteristik 0, was bedeutet, es sei Q c K. Wir denken an K = lR. oder K = C. Sei V ein n-dimensionaler Vektorraum überK, und sei

das k-fache Produkt von V mit sich selbst. Eine k-Form oder Multilinearform vom Grad k auf V ist eine multilineare Abbildung

und das ist, wie wir jetzt wissen, dasselbe wie eine lineare Abbildung

V Q9'" Q9 V

-+

K,

(k Faktoren),

also ein Element aus (3.1) Sei Qk(V) der Raum aller k-Formen auf V. Man hat das Produkt

Qk(V)

X

QP(V)

-+

a·ß(vl"",VkH)

QkH(V), (a,ß)

1--+

a· 13

= a(vl, ... Vk)·ß(Vk+l, ... ,Vp),

oder in Tensorschreibweise mit (3.2):

Es bezeichne S(k) die k-te symmetrische Gruppe, also die Gruppe aller Permutationen der Menge {I, ... , k}. Auf dieser Menge operiert S(k) nach unserer Notation von links, also ur = u 0 r ist die Zusammensetzung der Abbildungen u und T.

Kapitel VII. Tensorrechnung

220

Eine k-Form

0:

auf V heißt alternierend, wenn für alle O:(VI, ... , Vk)

=

(J

E S(k) gilt

sig((J)· O:(Va(l), ... , Va(k))'

wobei sig( (J) das Signum der Permutation

(J

ist, also

Natürlich hätte es genügt zu fordern, dass 0: den Faktor -1 aufnimmt, wenn man zwei nebeneinanderstehende Komponenten Vj vertauscht. Es genügt auch zu fordern, dass 0: stets verschwindet, wenn zwei Komponenten gleich sind: Eine alternierende Form erfüllt das, denn man darf - bis aufs Vorzeichen -- annehmen, dass die gleichen Komponenten nebeneinander stehen. Beim Vertauschen nimmt die Form den Faktor -1 auf, ist aber unverändert, also Null. Umgekehrt schließt man, indem man die linke Seite der Gleichung

multilinear ausrechnet. Die Menge aller alternierenden k-Formen, die man auch äußere k-Formen nennt, ist ein Unterraum AltkV C QkV, und offenbar ist AltOV = ]R und Alt1V = V*. Ist V = ]Rn, so ist det: V n

~ ]R

eine alternierende n-Form. Aus obiger Betrachtung folgt die (3.2) Bemerkllllg. Ist 0: E AltkV, so ist O:(VI, ... ,Vk) linear abhängig sind, und daher AltkV = 0

=

0 falls die (VI, ... ,Vk)

k > dirn V.

für

Beweis. Ist etwa VI = L:i>1 AiVi, so ... ,Vk) = L:i>1 AiO:( Vi, V2,· .. ,Vi, ... ,Vk) = O.

o

0:( VI,

Wir definieren eine Linksoperation der Gruppe S(k) auf dem Raum der k-Formen QkV durch (JO:(Vl, ... , Vk) := sig((J)O:(Va(l), ... , Va(k))' Eine k-Form

0:

(J

E S(k),

0:

E QkV.

ist genau dann alternierend, wenn (JO:

=

0:

für alle

(J

E

S(k).

Also: bei unserer Festsetzung der Operation von S(k) auf QkV besteht AltkV C QkV gerade aus den unter der Operation von S(k) invarianten Elementen. Wir definieren die Projektion a: QkV ~ AltkV,

al AltkV = id,

221

§3. Alternierende Formen durch 1

(3.3)

aa .- k!

L

(Ja,

aES(k)

und wir nennen aa den Alternator der k-Form a. Also: aa ist der Mittelwert der Transformierten (Ja, (J E S(k), und es ist daher ziemlich klar, dass a eine Projektion ist: Ist a E AltkV, so ist (Ja = a für alle (J, also aa = a, und ist a beliebig, so ist für T E S(k)

1 T(aa) = k! LT(Ja = aa, a

denn mit (J durchläuft auch T(J die Gruppe S(k). Also aa bleibt fest bei allen TE S(k), ist daher alternierend.

Jetzt definieren wir das äußere Produkt (Dachprodukt)

(3.4) a

1\

ß

:=

(k,f)· a(a· ß),

(k f) .= (k+f)! , . k!· f! .

Über den Vorfaktor (k, f) herrscht in der Literatur nicht allgemeine Einigkeit, wenngleich das Richtige auf dem Vormarsch ist. Es kommt auch vor, dass im Zuge der Anpassung und Verbesserung Unstimmigkeiten innerhalb eines Lehrbuches entstehen. Man kann die Definition so verstehen: Die Form a . ß ist ja nicht alternierend, aber sie bleibt schon fest unter der Operation der Untergruppe

S(k) x S(f)

c S(k + f),

deren Faktoren S(k) und S(f) die Permutationsgruppen der ersten k und der letzten f Indices sind. Die Formel (3.4) läuft nun darauf hinaus, dass man die Summe a

bildet, wobei (J ein Repräsentantensystem von Rechtsnebenklassen (J. (S(k) x S(f)) dieser Untergruppe in S(k + f) durchläuft.

(3.5) Eigenschaften des äußeren Produkts. Das äußere Produkt ist (i) bilinear, also linear in jedem Faktor bei festem anderen; (ii) graduiert antikommutativ, das heißt: ist a E AltkV, ß E AltRV, so ist

222

Kapitel VII. Tensorrechnung

(iii) assoziativ, nämlich für a E AltkV, ß E AltCV, , E AltrV ist (k+f+r)! ( ß k!f!r! a a . .,

( a 1\) ß 1\, = a 1\ ( ß 1\) , =

)

(iv) natürlich. Letztere Bedingung bedeutet folgendes: Eine lineare Abbildung Vektorräumen induziert die lineare Abbildung

f :V

W von

----t

und damit die lineare Abbildung

und diese Abbildung induziert durch Beschränkung eine Abbildung

(3.6) Ist nämlich aa = a für alle a E S(k), so insbesondere a(a diese induzierten Abbildungen sind funktoriell, also id*

= id,

(f

0

g)*

=

g*

0

0

fk)

=

a

0

fk. Alle

f*,

nämlich (f 0 g)*a = a 0 (f 0 g)k = a 0 fk 0 gk = g*(f*a). Dass nun das äußere Produkt für diese induzierten Abbildungen natürlich ist, heißt: f*(aI\ß)

=

f*al\f*ß·

Beweis von (3.5). (i) ist klar, a . ß ist bilinear, und a ist linear. (ii) Sei T E S(k + f) die Vertauschung der ersten k mit den letzten f Indices, dann ist a· ß = sig(T) . T(ß· a) = (- )koCT(ß· a), also

(iv) ist klar, wie gesagt, und für (iii) berechnen wir (a 1\ ß) 1\,. (aI\ß)1\, =

(k

+ f)! k!f! a(a·ß)I\, =

(k

+ f + r)! k!f!r!

a(a(a·ß)·,),

223

§3. Alternierende Formen

a(a(O'·ß)·,,)

1

=

1

(k+€+r)!(k+€)!

L

LO"(1"(O'·ß)·,,).

O"ES(k+f+r·) rES(kH)

Wir fassen S (k + €) als die Untergruppe von S (k k + € Indexe bewegt, dann steht da:

a(a(O'. ß) .,,) = (k (

1

+ €)! 1

k

€) ,

+ ..

+ € + r)

auf, die nur die ersten

1

L

rES(kH)

L

(k

+ € + r)!

L

0"1"(0'. ß .,,)

O"ES(kH+r)

a( 0' . ß . ,,) = a( 0' . ß . ,,).

S(kH)

Das ist das Behauptete, und die Rechnung für 0' /\ (ß /\ ,,) führt aus Symmetriegründen zum selben Ziel. 0 Das Ergebnis der letzten Rechnung kann man auch so sehen: Es ist

wobei 0" ein Repräsentantensystem von Rechtsnebenklassen von S(k) x S(€) x S(r) in der Gruppe S(k + € + r) durchläuft. Das Assoziativgesetz berechtigt uns, einfach 0'1 /\ 0'2 /\ ... /\ O'p zu schreiben, und man erhält sofort durch Induktion:

(3.7) wenn O'j den Grad kj hat. (3.8) Folgerung. Ist O'i E Alt 1 V für i = 1, ... , €, so ist

Beweis.

€! . a(O'1 ..... O'p)(v1, ... , Vp)

L

sig( 0") . 0'1 (VO"(1)) ... O'c (VO"(P))

O"ES(f)

det (O'i(Vj)).

o

Man nennt die direkte Summe n

AltV = EBAltkV,

n = dimV,

k=ü

die äußere Algebra von V. Die Multiplikation in dieser Algebra ist durch das Dachprodukt induziert. Wir haben also einen Funktor Alt von der Kategorie der

Kapitel VII. Tensorrechnung

224

reellen Vektorräume in die Kategorie der reellen Algebren definiert, der einem Homomorphismus f : V ---+ W von Vektorräumen den induzierten Homomorphismus

1*

=

Alt(f): Alt(W)

---+

Alt(V)

von Algebren zuordnet. Wir wollen die Räume Alt V und AltkV durch Basen explizit beschreiben. Sei also jetzt (e1, ... , en ) eine Basis von V und (e 1 , ... , en ) die duale Basis von V*, also

Eine Form 0' E Alt'Y ist dann offenbar bestimmt durch die Werte auf allen kTupeln (eil' ... , ei,), 0 < i 1 < i 2 < ... < ik :s: n, von Basisvektoren.

(3.9) Satz. Die Elemente eil 1\ ... 1\ ei " 0 < i 1 < ... < ik von AltkV, also dimAltkV = G), dimAlt V = 2n . Beweis. Sei 0 < i] < ... < ik

:s: n und 0 < j1

< ... < jk

:s: n,

bilden eine Basis

:s: n, dann ist

gleich 0, falls (i 1 , ... ,i ,J ic (jl, ... ,jk), und 1 sonst, woraus folgt, dass die angegebenen Elemente linear unabhängig sind, und dass der von ihnen erzeugte Raum auf den (ej" ... ,e7k ) alle Werte annimmt. D Insbesondere ist dirn AltnV = 1, und AltnV wird von der Form

erzeugt; die Determinante ist hier als die alternierende n-Form definiert, die auf der gewählten Basis den Wert 1 annimmt. Die Basiselemente eil 1\ ... 1\ e i , von AltkV entsprechen gerade den stets nach der Größe geordneten Teilmengen S = {i 1 , ... , i k } von genau k Elementen, ISI = k, und wir bezeichnen diese Elemente kurz mit eS und setzen entsprechend (eil' ... , ei,,) = es, so dass e s (e'r) =

67's

=

{I

0

= T,

falls S sonst.

Bezeichnen wir mit Vs das Erzeugnis der Basisvektoren es in V, so haben wir die Inklusion und Projektion

und wenden wir hierauf Alt" mit

AltkVs

j lexikographisch, also (i1,jl) i 1 < i 2 oder i 1 = i 2 , jl < J2, so hat man die Bijektion (4.16)

N-(n, K),

Km

--+

(Aij

li > j)

f-+

rn

< (i 2,j2) für

= n(n - 1)/2,

'P:n(A2d····· 'Pn,n-l(An,n-l).

Also: N-(n, K) ist ein Produkt von Gruppen 'Pij(K) ~ K. Diese Abbildung bildet (Aij) auf die Matrix mit Koeffizienten Aij unterhalb der Hauptdiagonale ab. Beachte, dass (4.16) eine gruppentheoretisch beschriebene Bijektion, aber kein Homomorphismus von Gruppen ist. Es gibt eine ähnliche Zerlegung wie (4.12), aber mit vertauschten Faktoren, die ich jetzt erkläre (siehe [Milnor]). Die Gruppe

M(n, K) = D(n, K) . P(n) = P(n)· D(n, K) ist die Gruppe der monomialen Matrizen. Auch dies ist eine semidirekte Zerlegung, diesmal mit dem Normalteiler D(n, k) und der Unter- und Faktorgruppe P(n). Die Elemente von M(n, K) sind die Matrizen, die in jeder Zeile und jeder Spalte genau eine Komponente ungleich 0 haben. Die Projektion auf P(n) ersetzt die Komponenten ungleich 0 jeweils durch 1.

Kapitel VIII. Lineare Gruppen und Liealgebren

248

Man hat die Zerlegung von Gruppen (4.17)

GL(n,K) = N+(n,K)·M(n,K)·N+(n,K).

und der monomiale Faktor in M(n, K) ist für jede Matrix in GL(n, K) eindeutig bestimmt. Existenz. Sei also A E G L( n, K). Suche für die erste Spalte t( an, a21 , ... , anl) das größte i, so dass ail i= O. Durch Ausräumen der ersten Spalte, rückwärts von ail aus, und der i-ten Zeile vorwärts, was einer Linksmultiplikation mit einer Matrix aus N+ (n, K) und einer Rechtsmultiplikation mit einer Matrix aus N+ (n, K) entspricht, erreicht man, dass alle alk, k = i-I, i - 2, ... ,0, verschwinden und alle aij, j = 2, ... , n. Dann fährt man induktiv mit der Matrix fort, die aus dem ersten Schritt durch Streichen der ersten Spalte und i-ten Zeile entsteht. Das Endergebnis ist eine Matrix, die in jeder Zeile und Spalte nur ein Element ungleich Null enthält, eine Matrix aus M(n, K). Das zeigt: Es gibt B, C E N+(n, K) mit BAC E M(n,K), also A E N+(n,K)· M(n,K)· N+(n,K). Eindeutigkeit. Angenommen, man hat Permutationsmatrizen P, P' und obere Dreiecksmatrizen B j mit BI P B 2 = B 3 P' B 4 ·

Dann bringt man alles passend herüber und erhält eine Gleichung:

PB = B'P' =: C, mit B,B' E B+(n,K). Wir wollen zunächst P = P' folgern. Nachher betrachten wir die Diagonalteile. Nun, bei entsprechender Bezeichnung der Koeffizienten der Matrizen ist Cij

(Cei, ej ) =

(PBei, ej ) =

(Bei, eT-1(j»)

biT-l (j),

wenn T die Permutation zur Matrix P ist, also Pej = eT(j)' Nun ist aber B = (b ij ) eine obere Dreiecksmatrix. Schreiben wir demnach das Polynom der LeibnizEntwicklung für die Determinante von C auf, so verschwindet von den Monomen

nur genau das eine nicht, bei dem T-1a(j) = j, also T = a. Das zeigt, dass die Permutation T diejenige Permutation a ist, für die in der Leibniz-Entwicklung der Determinante von C ein nichtverschwindendes Monom dasteht, oder anders gesagt: wo von den Koeffizienten Cl,u(l),'" ,cn,u(n) keiner verschwindet. Für das umgekehrte Produkt C Cij =

=

B' P' erhält man ganz analog

. pi b'T'(i),j' mit ei = eT'(i),

§4. Gaußelimination

249

also dasselbe Monom CI,a(l) ... cn,a(n)

=

b~/(I),a(I)'" b~/(n),a(n)'

mit T'(j) = a(j) für alle j als einziges in der Leibniz-Entwicklung von C, das nicht verschwindet. Das zeigt T = T', also P = Pi. Bleibt die Eindeutigkeit des Diagonalfaktors der Zerlegung zu zeigen. Nun, wenn wir in der ursprünglichen Gleichung

wieder alles passend umordnen, erhalten wir eine Gleichung

D N' = p-l NP . D' , mit N; N' E N+ (n, K). Die linke Seite, also auch die rechte, ist eine obere Dreiecksmatrix, damit auch P-INP, und wir müssen zeigen, dass P-INP dann auch unipotent ist, denn dann ist D = D' beiderseits die Diagonale. Nun ist ei

+L

njiej, also

joIi

P-Iei

+L

njip-Iej.

joIi

Aber p-Iei durchläuft für i

= 1, ... ,n auch

p- l NPek

alle Einheitsvektoren, also

= ek + L njkej, j#

und das zeigt, dass p- l NP die Diagonalkoeffizienten 1 hat.

o

So kann man einer Matrix in G L( n, K) bei der Zerlegung (4.17) eindeutig ihren monomialen Anteil in M(n, K) zuordnen, aber natürlich ist diese Zuordnung unstetig. Bei der Zerlegung (4.12) ist der Faktor in der Permutationsgruppe P(n) im Allgemeinen nicht eindeutig bestimmt. Auf dem Vektorraum M(n x m,K) = HOmK(Km,Kn) hat man die Operation der Gruppe GL(n, K) x GL(m, K), bei der das Gruppenelement (B, C) auf der Matrix A durch A f---t BAC- I operiert:

(4.18)

Diese Operation entspricht einer Basistransformation mit C in Km und mit B in Kn. Nach dem Rangsatz liegen zwei Matrizen A, A' genau dann in der gleichen

250

Kapitel VIII. Lineare Gruppen und Liealgebren

Bahn, wenn sie gleichen Rang haben. Die Bahnen entsprechen also bijektiv den Rängen k, mit 0 :s: k :s: n. Man sagt: Der Rang ist eine vollständige Invariante für die Bahnen der Operation (3.15). Ist rn = n und operiert die Gruppe GL(n, K) auf End(K n ) durch A 1-+ T AT- 1 für T E GL(n, K), so werden die Bahnen durch die Jordansche Normalform beschrieben, siehe V, § 5 für die Körper IR und o. j

I

k~ Dies sind nun gerade die Umformungen, die man in dem Orthonormalisierungsverfahren von Gram--Schmidt verwendet: Das Orthogonalisieren des j-ten Vektors zu den vorhergehenden geht mit N E N+(n, K), das Normieren mit D E D(n), siehe IV, (2.3). Das Verfahren liefert also zu jedem A E GL(n, K) ein D E D(n), ein NE N+(n, K) und U E O(n) bzw. U(n), so dass ADN = U, also A = U(DN)-l. Mit anderen Worten

(5.1) Iwasawa-Zerlegung. Die Multiplikation induziert Bijektionen

O(n) x D(n) x N+(n, IR)

---7

GL(n, IR),

U(n) x D(n) x N+(n, R, so ist f(A) divergent. 26. Auf einem 2-dimensionalen Vektorraum V sei ein Produkt V x V ----) V, (x, y) 1-+ [x, y], definiert, das V zu einer Liealgebra macht. Zeige, dass V eine Basis (v, w) besitzt, so dass entweder [v, w] = 0 oder [v, w] = w gilt. Das beschreibt bis auf Isomorphie alle zweidimensionalen Liealgebren.

§9. Aufgaben

267

27. Vervollständige das nachfolgende Diagramm, gib die jeweiligen Abbildungen explizit an, so dass das Diagramm kommutiert: ? f-I- - - - - - + l ?

~U~l

tER~']

=p

'U0l

],

~'O~2l __ex-,-p~l SOJ2) ?

f-I- - - - - - + l

?

28. Weise nach, dass die folgenden Vektorräume reelle Unterliealgebren von gl(n,C) sind: sl(n,lR), so(n), u(n), d(n), n+(n,lR). 29. Zeige, dass exp : sl(2, C) ---- SL(2, C) nicht surjektiv ist. Welche Werte kann Spur ( exp(A)) für A E sl(2, C) annehmen? 30. Zeige, dass die Exponentialabbildung für so(n) und u(n) surjektiv ist. 31. Sei cp : lR ---- GL(n, C) eine Einparametergruppe, beliebig oft stetig differenzierbar, und 0(0) = A. Zeige: cp(t) = exp(tA). Hinweis: Kapitel V, § 6.

Kapitel IX

Quaternionen und orthogonale Gruppen A questa brieve noia (dieo brieve, in quanta in poche lettere si eontiene) sequinl prestamente la doleezza e il piaeere, il quale io v'ho davanti promesso, e ehe forse non sarebbe da eosi fatto inizio, se non si dicesse, aspettato. E nel vero, se io potuto avessi onestamente per altra parte menarvi a quello ehe io desideTO ehe per eosi aspro sentiero eome fia questo, io I' avrei volentier fatto.

Die orthogonalen und unitären Gruppen kleiner Dimension haben ihre Besonderheiten, und sie sind von großer Bedeutung in der theoretischen Physik. Die Struktur dieser Gruppen wird durch das Studium der Quaternionenalgebra erhellt werden, und diese führt uns zu neuen linearen Gruppen. Schließlich sagen wir etwas über die Struktur der Lorentzgruppe.

§1

Die Gruppe SO(3) und ihre Liealgebra

Die adjungierte Darstellung (8.7) von SU(2) ist ein Homomorphismus ad: SU(2)

-7

SO(3),

der eine enge Beziehung zwischen diesen Gruppen herstellt, und die adjungierte Darstellung von SO(3) ist, wie wir sehen werden, ein Isomorphismus SO(3) - 7 SO(3). Der Lieklammer auf 50(3) entspricht dabei das Kreuzprodukt auf lR:3 , und dies erklärt eigentlich die Bedeutung des Kreuzprodukts in der Mechanik. Die genaue explizite Aussage ist wie folgt:

T. Bröcker, Lineare Algebra und Analytische Geometrie © Birkhäuser Verlag 2003

Kapitel IX. Quaternionen und orthogonale Gruppen

270

(1.1) Satz. Man hat einen linearen Isomorphismus K, : so(3) Eigenschaften: (i) 1K,(Xji2

=

-~ Spur(X 2 ), also

K,

---+

lR 3 mit folgenden

ist orthogonal.

(ii) K,(T XT- 1) = TK,(X) für TE SO(3), also: das Diagramm so(3) ~ so(3)

lK ist kommutativ.

(iii) K,([X, Y])

=

K,(X) x K,(Y), oder in einem Diagramm so(3) x so(3)

[.,.]

) so(3)

x

(iv) Für XE so(3) ist exp(X) E SO(3) eine Drehung mit Achse K,(X).

(v) K,-1: lR 3 ---+ so(3) bildet v ab auf die lineare Abbildung: K,-l(V) : lR 3 Wf---+V X W.

---+

lR 3 ,

(vi) In Komponenten ist K, gegeben durch

Beweis. Wir definieren K,-1 : lR 3 ---+ End IR (lR 3 ) durch (v) und zeigen, dass K,-l(V) schiefsymmetrisch ist: (K,-l(V)U,W) = (v X u,w) = det(v,u,w) = -det(v,w,u) =

_(U,K,-l(V)W).

In Komponenten ist K,-1 wie folgt gegeben:

Das zeigt, dass K,-1 isomorph ist, mit Umkehrung wie in (vi). (iv): Aus (v) folgt K,-l(V) : v f---+ 0, also wenn K,(X) Das heißt exp(X) . K,(X) = (1 + X + ... ) . K,(X) exp(X) fest.

= v, so X 'K,(X) = K,-1 (v)v = O. = K,(X), also bleibt K,(X) unter

271

§1. Die Gruppe SO(3) und ihre Liealgebra (i): ~~ Spur(X 2 ) = ~ Spur(iXX) und Spur(tXX) folgt also aus (vi).

(ii): Für alle v, w E

]R3

(1.2)

Li.] XTj'

die Behauptung

und T E 80(3) gilt T(v) x T(w) = T(v x w).

Das besagt nun ",-I(T(v))Tw = T",-I(v)W. Dass das für alle w gilt, besagt " , - I (T( v)) oT = To",-1 (v), also ",-ITv = T",-I (v)T- 1. Setze X = " , - I (v), so steht da " , - I (T",(X)) = TXT- 1 . Anwenden von", ergibt (ii). Die Formel (1.2) sieht man so: Sind v, w linear abhängig, so verschwinden beide Seiten, und sonst steht beidseits ein Vektor u, der zu Tv, Tw orthogonal ist, mit det(Tv, Tw, u) = Iv X w1 2 • (iii): Ist X = ",-I(v), Y = ",-I(w), so besagt die Formel ",-I(v x w) = [",-I(v),,,,-I(W)] oder, wenn man beide Seiten auf u anwendet (v x w) x u = v x (w x u) ~ w x (v x u), und das ist äquivalent zur Jacobiidentität (v x w) x u + (w x u) x v + (u x v) x w = 0 für das Kreuzprodukt, siehe 0, (3.2, iv). 0 Wenn ein starrer Körper B sich um einen festen Punkt 0 E Birgendwie dreht, und wir auf B ein euklidisches Koordinatensystem mit Mittelpunkt 0 errichten und zugleich ein Koordinatensystem mit Ursprung 0 im ruhenden Raum ]R3, in dem B sich bewegt, wählen, so wird die Bewegung von B durch eine Kurve t f-+ A(t) E 80(3) beschrieben, nämlich: A(t) ist die Transformation von den Koordinaten im ruhenden Raum auf die Koordinaten in B. Ist nun die Wahl so getroffen, dass A(O) = id, so ist, wie wir erklärt haben, (d/dt) I A(t) = XE 80(3) ~ ]R3, also: die ()

Rotationsgeschwindigkeit wird durch einen Vektor w = ",(X) E ]R3 beschrieben, der nach (iv) in Richtung der momentanen Drehachse zeigt. Die Geschwindigkeit eines Punktes q E B ist dann d/dt I A(t) . q = X . q = ",-I(W)q = W X q nach o (v). So wird das, was bei der Beschreibung des Trägheitstensors gleichsam aus der Luft fiel, in einen allgemeinen Zusammenhang eingeordnet. Wir wollen die Drehung e tX mit Rotationsgeschwindigkeit X E 80(3) zur Zeit 0 noch etwas genauer studieren. Es ist exp(T XT- 1) = T exp( X)T- 1 , und ",(T XT- 1) = T",(X). Zu gegebenem X können wir also T so wählen, dass ",(T XT- 1) = t . e3 für ein t E ]R, also exp(X). In einem Diagramm: ]R3

_ _ _ _ _"""*)

]R:l

exp(X)

]R3

) ]R3. exp (t.,,-1(e3))

Kapitel IX. Quaternionen und orthogonale Gruppen

272

Es kommt also darauf an, die Gruppe der Drehungen

zu studieren. Weil diese Drehungen e3 festlassen, handelt es sich um Drehungen der Ebene L(e], e:z), und sie sind nach (LI, vi) von der Form

In komplexer Schreibweise ist die Matrix gerade die Multiplikation mit i:

(0 ~1). °. 1

'2 IR 2 =C-.C=IR. i·

l,i

f--+

i,

~1

Daher liefert die Exponentialfunktion

exp(ti) = cos t

+ i sin t =

Beschränken wir t auf das Intervall I =

[~7r, 7r],

it, t2 EI, genau dann, wenn t 1 = t 2 oder t 1 = Vektoren der Norm::;

7r

(cos t sin t

~ sin t) . cost

so ist exp(t1i) = exp(t 2 i) für ±7r. Sei nun D; der Ball der

~ t'2 =

in IR 3 .

(1.3) Satz. Die Abbildung

ist surjektiv, und es gilt J(v) v = ~w und lvi = Iwl = 7r.

=

J(w) genau dann, wenn entweder v

w oder

Beweis. Die Abbildung 15 ist surjektiv, denn exp(tK:- 1(e;,)), ~7r::; t::; 7r, liefert alle Drehungen um die Achse e3, und ist v = Te:l, so liefert daher exp (t",-1(V)) = exp (tlc 1(Te:l)) = Texp(tK:-1e3)T-1 alle Drehungen mit Achse Te:l. Ist nun 15 (v) = 15 (w), so sind v und w linear abhängig, weil sonst exp( v) zwei linear unabhängige Vektoren festlässt, daher exp( v) = id und damit v = w = wäre. Also wenn J(v) = J(w), so haben J(v) und J(w) gleiche Drehachse, und dann ist offenbar entweder v = w, oder aber v = ~w und lvi = Iwl = 7r, weil beide Länge::; 7r haben. 0

°

Dieser Satz beschreibt genau und explizit in Formeln, wie man eine Drehung durch einen Vektor angeben kann, dessen Richtung die Drehachse angibt, und dessen Länge sagt, wie weit herum gedreht wird (und die Drehung um 7r liefert dasselbe Ergebnis, wie die Drehung um ~7r um dieselbe Achse). Der Satz gibt damit eine geometrische Beschreibung des Raumes SO(3):

§2. Quaternionen

273

(1.4) Folgerung. Durch 8 wird ein Homöomorphismus von lR.p3 mit SO(3) beschrieben.

[y]

E lR.p3

x

Beweis. Wenn man in D 3 antipodische Randpunkte identifiziert, entsteht lR.p3, siehe Figur. Die Behauptung wird sich aus (3.13) nochmal ergeben. D

§2

Quaternionen

Die reelle Algebra IHI der Quaternionen ist die Algebra der komplexen (2 x 2)Matrizen der Gestalt (2.1) Analog zur Konjugation in C besitzt IHI den Antiautomorphismus IHI ----; IHI, A f---+ *A = tA, mit (2.2)

*(A + B) = *A + *B,

*(A . B) = *B· *A.

Auch definiert man die Norm von A in (2.1) als (2.3)

N(A) =

lal 2 + IW

= det(A).

Also N(A·B) = N(A) ·N(B). Man definiert den Betrag durch lAI = JN(A), also IA· BI = IAI·IBI· Die Determinante bezeichnen wir hier durch det. Der konjugierte Quaternio, den wir vorsichtshalber mit *A bezeichnen, weil wir schließlich doch wieder an Matrizen denken, wird oft auch mit A bezeichnet, aber das ist dann etwas anderes als die komponentenweise konjugierte Matrix. Wir bleiben lieber bei *A. Dann ist A . *A = N(A) . 1, also hat A E IHI das multiplikativ Inverse (wie im Komplexen)

(2.4) Die Quaternionenalgebra ist ein 4-dimensionaler Vektorraum über lR., und die quadratische Form N macht IHI zu einem euklidischen Raum. Man hat auch eine

Kapitel IX. Quaternionen und orthogonale Gruppen

274

Einbettung C durch

---->

IHI, durch die wir C als Teilkörper von IHI auffassen. Sie ist gegeben

(2.5) Auf C c IHI stimmt die Konjugation von IHI dann mit der in Cerklärten überein. Hier muss man jetzt etwas aufpassen und die Koeffizienten der Matrizen als Elemente von C von den Elementen in C c IHI unterscheiden. Durch die Einbettung (2.5) wird insbesondere IHI zu einem 2-dimensionalen Vektorraum über C, wobei C durch Linksmultiplikation als Teilkörper von IHI auf IHI operiert. Auch zwischen Linksmultiplikation und Rechtsmultiplikation muss man unterscheiden, weil die Multiplikation von IHI nicht kommutativ ist. Als C -Vektorraum hat IHI die Standardbasis der zwei Elemente (2.6)

1=G

n, j=(~1~)

mit der Mulitplikationsregel (2.7)

j2 = -1

und

Damit haben wir dann

zj

jz

(~b

!)

=

a+bj.

Der komplexe Vektorraum IHI trägt das unitäre Skalarprodukt

(2.8)

(a

+ bj, c + dj) =

ac + bd.

Die Basis (2.6) ist hierfür orthonormal. Die Einbettung (2.5) liefert insbesondere die kanonische Einbettung IR r·1. Als reeller Vektorraum hat IHI die Standardbasis

---->

IHI, r

---->

mit den

(2.10) Multiplikationsregeln. i 2 = ki = -ik = j.

P=

k2

= -1,

ij

= -ji = k, jk = -kj =

i,

Dies ist eine Orthonormalbasis für das euklidische Skalarprodukt, das durch die Norm N als quadratische Form auf IHI gegeben ist. Die Quaternionen ai + bj + ck, mit a, b, c E IR, heißen reine Quaternionen. Sie bilden einen reell 3-dimensionalen euklidischen Raum Im IHI, den wir durch die Basis i, j, k mit 1R3 identifizieren. Dann haben wir die kanonische orthogonale Zerlegung (2.11)

IHI

=

IR EB 1R3 ,

1R3

=

Im IHI,

A

=

Re(A)

+ Im(A)

E IHI

§2. Quaternionen

275

von 1HI in den Unterkörper lR und den euklidischen Raum Im 1HI = lR 3 der reinen Quaternionen. Die Multiplikationstabelle (2.10) erinnert an die Regeln für das Kreuzprodukt und zeigt, dass wir das Kreuzprodukt mit der Quaternionenmultipikation so ausdrücken können:

(2.12) Notiz. Für A, B E lR 3

= Im 1HI

ist A x B

= Im(A . B).

Die Zerlegung (2.11) ist allein durch die Ringstruktur von 1HI bestimmt, wie wir jetzt zeigen. Das Zentrum eines Ringes Rist Z(R)

=

{z E R

I zx =

xz

für alle

xE R}.

(2.13) Satz. Das Zentrum des Ringes 1HI ist R Dies folgt unmittelbar aus folgendem

(2.14) Lemma. Sei A E 1HI \ lR, XE 1HI und XA = AX, dann ist XE lR + lR· A. Beweis. Genau dann ist XA = AX, wenn X Im(A) = Im(A)X, wir dürfen also A E Im(lHI), A =/:- 0 voraussetzen. Für einen reinen Quaternio A = ai + bj + ck gilt:

(2.15) nach (2.10). Wir dürfen noch X durch Im(X) ersetzen und dann X und A durch einen reellen Faktor so normieren, dass oBdA X 2 = A2 = -1 gilt. Dann folgt: (X - A)(X + A)

=

X

2

+ XA -

AX - A 2

= 0, also

X

=

±A.

o

Damit ist lR als Teilkörper von 1HI rein ringtheoretisch als das Zentrum entlarvt. Nach (2.15) ist A 2 E lR_, falls A E Im 1HI. Diese Eigenschaft charakterisiert Im 1HI ringtheoretisch, denn ist A = r + Q, r E lR, Q E Im(lHI), so ist A 2 = r 2 + 2rQ + Q2 genau dann in lR, wenn rQ = 0, also r = 0 oder Q = 0, und dabei nicht positiv genau dann, wenn r = o. Also

A E Im 1HI

(2.16)

{=}

A 2 E lR_.

Hier benutzen wir, dass der Körper lR nur den identischen Automorphismus zulässt, und dass auch die Anordnung, also die Teilmenge lR+ C lR, allein durch die Ringstruktur von lR beschrieben werden kann. Nämlich: lR+ ist die Menge der Quadrate in REin Ringautomorphismus

'(A;t) = eXPL(-)k+lWk(A)/k.t k , k=1

und aus (4.10)

(5.8)

-t>"(A; t)/>'(A, t)

w( -t).

Kapitel X. Ringe und Moduln

324

Diese Formeln bestimmen die Spuren der äußeren Potenzen aus den Spuren der Potenzen von A und umgekehrt. Ebenso kann man die folgenden Aussagen über symmetrische Polynome in die lineare Algebra übertragen. Die Formeln (4.13), (4.14) liefern für eine (n x n)-Matrix A: n

2:)-)jAj(A)W n + -j(A) T

(5.9)

=

0 für r::::: 0, mit 'l/Jo

n,

j=O k-l

2:)-)jAj(A)Wk-j(A)

+ (-)kkAk(A)

o

für

k.s n.

j=O

Für die direkte Summe A EB B von Matrizen, das ist die Matrix

liefert (4.11) die Formeln:

A(A ED B; t) w(A EB B; t)

(5.10)

A(A;t)· A(B;t), w(A; t) + w(B; t).

Schließlich bilden wir im Polynomring Z = R[Xl, X2, ... ] die Determinante

Dann folgt aus (4.20): (5.11)

§6

Interpolation und der erste Zerlegungssatz

Einem Polynom g(t) E K[t] können wir nach gewohnten Formeln Ableitungen im Punkte A E K zuordnen, ja man erhält formal (bei beliebigem Ring K) ein Taylorpolynom von 9 bei A, das man auch wie folgt berechnen kann: Man setzt y = t - A, also t = Y + A. Dies setzt man in 9 ein: g(t) = g(y + A) = h(y), ein Polynom in y durch Ordnung nach Potenzen von y. Dann ist also

g(t)

=

h(t - A),

und h ist das Taylorpolynom von 9 bei A. Natürlich hängt h linear von 9 ab, die Substitution 9 1-7 h von y + A für t ist ein Ringisomorphismus des Polynomrings auf sich. Das Taylorpolynom vom Grad k entsteht aus h durch Weglassen der Terme höherer Ordnung. Ist f(A) 1= 0, so ist

§6. Interpolation und der erste Zerlegungssatz

325

die Taylorreihe von 1/ J bei A die formale inverse Potenzreihe der Taylorreihe von J bei A, jeweils als Reihen mit Variable t - A. So kann man dann einer rationalen Funktion g/ J an jeder Stelle A eine Taylorreihe algebraisch zuordnen, wo J(A) =1= 0, und man hat die üblichen Rechenregeln für diese Reihen. Nun betrachten wir verschiedene Punkte Al, ... ,Am E K und bilden das Polynom

Wir wollen sehen, wie die Division mit Rest mit der Taylorentwicklung zusammenhängt: Zwei Polynome gl, g2 lassen genau dann denselben Rest modulo J, wenn gl - g2 den Rest 0 lässt, also durch J teilbar ist. Und g ist durch J teilbar, wenn es durch (t - Aj )n j teilbar ist, für j = 1, ... ,m, also wenn es an den Stellen Aj von der Ordnung nj verschwindet, und das besagt, dass das Taylorpolynom vom Grad nj - 1 von g bei Aj verschwindet. Andererseits ist ein Polynom vom Grad kleiner n nur 0 modulo J, wenn es selbst verschwindet. Das können wir nun so formaler fassen: Wir haben den n-dimensionalen K-Vektorraum P der Polynome vom Grad höchstens n - 1, und den n-dimensionalen Vektorraum Q der m-Tupel von Taylorpolynomen vom Grad nj - 1 bei Aj, j = 1, ... , m, und die lineare Abbildung

die einem Polynom g seine Taylorpolynome bei Al, ... ,Am zuordnet. Wir haben festgestellt: Der Kern von j verschwindet, d.h.:

(6.2) Bemerkung. Die Abbildung j ist ein Isomorphismus. Man kann also Taylorpolynome vom Grad nj -1 bei Aj für j = 1, ... , m vorgeben, und findet dann genau ein Polynom g vom Grad n - 1 mit diesen Vorgaben. Es heißt das Lagrange-Sylvestersche Interpolationspolynom für diese Vorgaben. Es gibt Formeln, es explizit hinzuschreiben. Eine für uns nützliche ist wie folgt. Sei

(6.3)

gj(t) =

II (t -

Ak)n k = J(t)/(t - Aj)n- j .

ki-J

Sei pj(t - Aj) das an der Stelle Aj vorgegebene Taylorpolynom und sei qj(t - Aj) das Taylorpolynom vom Grad nj -1 von Pj(t - Aj)/gj(t) bei Aj. Weil gj(Aj) =1= 0 ist, kann man dieses Taylorpolynom einer rationalen Funktion in gewohnter Weise bilden. Dann ist das Interpolationspolynom

(6.4) In der Tat: qj(t - Aj)gj(t) hat das Taylorpolynom pj(t - Aj) bei Aj, und weil gk für k =1= j verschwindendes Taylorpolynom vom Grad nj -1 bei Aj hat, tragen die anderen Summanden zum Taylorpolynom bei Aj nichts bei. Über die Division mit Rest lehrt das Gesagte:

Kapitel X. Ringe und Moduln

326

(6.5) Bemerkung. Genau dann haben zwei Polynome gleichen Rest modulo f, wenn sie gleiche Taylorpolynome vom Grad nj - 1 bei Aj für j = I, ... ,m haben. Auf die lineare Algebra wenden wir das wie folgt an: Wir betrachten einen KVektorraum V und einen Endomorphismus 00:

V-?V

mit Minimalpolynom f wie oben. Dann ist einem beliebigen Polynom 9 E K[t] der Endomorphismus g(a) zugeordnet, und man hat den Ringhomomorphismus K[t]

-?

EndK(V),

g

f-+

g(a)

mit Bild K[al. Die Division mit Rest g(t) = h(t)· f(t)

+ 'P(t),

deg'P:S n - I,

zeigt g(a) = 'P(a), also g(a) hängt nur vom Divisionsrest 'P ab, und 'P(a) = 0 ~ 'P = 0, weil f das Minimalpolynom ist. Das oben Gesagte bedeutet also:

(6.6) Bemerkung. Genau dann ist g(a) = 'P(a), wenn 9 - 'P auf dem Spektrum Spec(a) = {Al, ... ,A m } von mindestens derselben Ordnung wie f verschwindet. Der Ringhomomorphismus, der jedem 9 E K[tl das m- Tupel der Taylorpolynome von 9 jeweils vom Grad nj - 1 in den Aj zuordnet, induziert einen Isomorphismus von K[al mit dem Ring dieser m-Tupel von Polynomen. Diese werden dabei komponentenweise addiert und multipliziert unter Weglassen von Termen höherer Ordnung als jeweils nj - 1. Wenn alle Eigenwerte einfach sind, ist also K[al auf diese Weise der Ring der K-wertigen Funktionen auf Spec(a). Dem Polynom 9 also g(a) entspricht dabei die Funktion gISpec(a). Im Allgemeinen aber genügt es nicht, die Werte von 9 in den Aj zu kennen, man muss auch die Werte der Ableitungen bis zur (nj)-ten Ordnung vorgeben, um g(a) zu bestimmen. Auf einen Enomorphismus anwenden, also

00

mit f(a)

= 0 lässt sich der erste Zerlegungssatz

m

V

Wir möchten die Projektionen prj : V - ? Vj als Polynome in 00 explizit angeben. Dazu brauchen wir Polynome aj(t), j = 1, ... ,m, so dass mit (6.3)

(6.7) Dann nämlich ist

(6.8)

prj

327

§7. Der Quotientenkörper

die gesuchte Projektion. In der Tat, dieses prj verschwindet auf Vk für k i= j, weil da gj(a) verschwindet, es enthält ja den Faktor (a - Ak)n k • Und auf '0 veschwinden demnach alle Summanden ak(a)gk(a), k i= j, von (6.7) mit t = a, ausser dem j-ten, und dieser, aj(a)gj(a), muss nach (6.7) somit die Identität auf '0 sein. Es kommt also nur darauf an, die aj(t) anzugeben, und das haben wir in (6.4) schon geleistet: In (6.7) steht das Interpolationspolynom des konstanten Polynoms 1, also aj ist das Taylorpolynom vom Grad nj - 1 um Aj von l/gj(t): nj-l

(6.9)

aj(t) =

L

(l/gj(t))~~Aj . (t -

Aj)k /kL

k=O

Der Exponent [kJ bezeichnet die k-te Ableitung.

§7 Der Quotientenkörper Im Allgemeinen ist ein Integritätsring R noch kein Körper, wie es die Beispiele Z oder K[XI, .. . ,xnl zeigen. Aber wie man Z in den rationalen Zahlkörper Q einbettet, kann man jeden Integriätsring R in einen Körper Q(R) einbetten, indem man Brüche mit Zähler und Nenner in R einführt. Sei also Rein Integritätsring. Auf der Menge von Paaren R x (R \ {O}) führt man die Äquivalenzrelation

(7.1) ein, und bezeichnet die Äquivalenzklasse von (a,b),b i= 0, mit a/b. Die Äquivalezrelation besagt also a/b = aI/bI ~ abI = baI· Die Relation (7.1) ist offenbar symmetrisch und reflexiv (siehe I, (2.8)). Sie ist auch transitiv: Ist (a,b) '" (al,b l ) '" (a2,b s ), so abI = baI, a l b2 = bla2, also ab l b2 = ba l b2 = bbIa2, folglich, weil R integer ist, durch Kürzen, ab 2 = ba2, das heißt (a, b) '" (a2, b2 ). Unsere Kenntnisse aus den ersten Schulklassen frischen wir nun auf in dem

(7.2) Satz. Sei Rein Integritätsring und Q(R) =

{a/bla, bER, bi=O}.

Dann ist Q(R) ein Körper, der Quotientenkörper von R, mit der Addition: a/b + aI/bI := (abI + bal)/bbl, Multiplikation: a/b . aI/bI := aaI/bb 1 . Man hat den kanonischen injektiven Ringhomomorphismus L:

R ~ Q(R) ,

a ~ a/1,

Kapitel X. Ringe und Moduln

328

und fasst dadurch R als Teilring seines Quotientenkörpers Q(R) auf. Diese Inklusion L hat folgende universelle Eigenschaft: Ist Kirgendein Körper und f : R ---> K ein injektiver Homomorphismus (Monomorphismus) von Ringen, so gibt es eine eindeutig bestimmte Faktorisierung von j über L:

R

~-" --f:--/-/-/;-+_> K ](a/b):= j(a)· j(b)-l.

Q(R) ,

Beweis. Man muss nachrechnen, dass die Addition und Multiplikation wohldefiniert ist und die Körperaxiome erfüllt sind, und dass L injektiv ist (a/1 = b/1 {::=::? a = b). In Q(R) ist alb = ab-I, denn alb = a/1 . l/b, und b· l/b = b/1 . l/b = b/b = 1/1 = 1, also l/b = b- 1 . Daher ist J nur so zu wählen wie angegeben, und dass dies wohldefiniert und ein Homomorphismus ist, liegt daran, dass die Relation (4.1) und die Definition der Addition und Multiplikation in Q(R) bei Anwenden von f in gültige Regeln der Bruchrechnung in einem Körper übergehen. 0

Beispiele. Der Ring Z der ganzen Zahlen hat den Quotientenkörper

Q(Z)

=

Q.

Der Polynomring K[x] über einem Körper K hat als Quotientenkörper den Körper K(x) := Q(K[x])

der rationalen Funktionen. Eine rationale Funktion schreibt sich als Bruch f(x)/g(x), f,g E K[x], 9 =1= O. Sie ist im allgemeinen nicht auf ganz Keine wohldefinierte Funktion, nämlich dort nicht, wo g(x) verschwindet. Ist Rein Integritätsring, so ist Q(R[x])

=

Q(R)(x).

Sind nämlich rechts die Koeffizienten der Polynome f, 9 in f / 9 nicht ganz, sondern Brüche von Elementen aus R, so kann man das Ganze mit dem Produkt der auftretenden Nenner erweitern, und kriegt einen äquivalenten Bruch mit Zähler und Nenner in R[x]. Entsprechend hat man den rationalen Funktionenkörper in mehreren U nbestimmten K(Xl, ... ,X n ) := Q(K[Xl' ... 'X n ]). Aus (7.2) und (2.12) zusammen ergibt sich: (7.3) Notiz. Sei Rein Integritäsring und f E R[x] ein nicht konstantes Polynom. Dann gibt es einen Körper L und eine Einbettung L von R als Teilring von L, so dass f in L[x] in Linearfaktoren zerfällt.

R.s

329

§8. Moduln

Ist K ein Körper der Charakteristik ch(K) = 0, so hat man die kanonische Einbettung Z -S K, und nach (7.2) eine dadurch bestimmte Einbettung c "': Q----;K.

(7.4)

Also ist Kein Vektorraum über Q. Dieser Unterkörper ",(Q) heißt dann der Primkörper von K. In jedem Fall ist der Primkörper Z /p bzw. Q für ch(K) = p bzw. ch(K) = 0 jeweils der kleinste Teilkörper von K. Natürlich kann ein unendlicher Körper endliche Charakteristik haben, wie zum Beispiel (Z /p)(x).

§8

Moduln

Sei R ein (nicht notwendig kommutativer) Ring mit l.

(8.1) Definition. Ein Modul (genauer: Linksmodul) M über R besteht aus einer additiven abelschen Gruppe (M, +), zusammen mit einer Linksoperation des Ringes Rauf M. Das ist eine Abbildung : R x M ----; M,

(x, m)

1-+

(x, m) _. xm,

so dass für alle x, y E R, m, n E M gilt:

(i) (x+y)m=xm+ym, (ii)

(xy)m

(iii) x(m

= x(ym),

+ n) =

xm

Om=O.

Im=m.

+ yn.

Ein Homomorphismus f : M ----; N von R-Moduln ist ein Homomorphismus der zugrundeliegenden abelschen Gruppen, so dass f(xm) = xf(m) für alle x E R, m E M. Sei HomR(M, N) die abelsche Gruppe der R-Modulhomomorphismen vom M nach N. Man ist versucht zu sagen: Ein Modul ist ein Vektorraum über einem Ring, aber richtig ist: Ein Vektorraum ist ein Modul über einem Körper. Das liefert schon viele Beispiele. Beispiele: (8.2) Jede abelsche Gruppe M ist auf eindeutig bestimmte Weise ein Z-Modul, mit der Operation Z x M ----; M, (q, m) 1-+ q. m. Ist M die abelsche Gruppe, und gibt es ein q E Z, q > 0, so dass qm = 0 für alle m, so induziert die Operation (8.2) eine Operation Z/q x M ----; Mund M wird ein Z /q-Modul. Das ergibt sich stets, wenn M endlich ist. Ist dabei q eine Primzahl, so wird Mein Vektorraum über Z /q.

Kapitel X. Ringe und Moduln

330 Ist V ein Vektorraum über Kund R die kanonische Operation (8.3)

RxV

-+

= EndK(V),

V,

(0:,

so wird V ein R-Modul durch

v) f-7O:(v).

So wird insbesondere K n ein Modul über dem Matrizenring M(n x n, K). Das eben bringt uns darauf, Moduln zu betrachten.

(8.4) Sei V wie in (8.3) und 0: ein fest gewählter Endomorphismus von V, dann ist V ein Modul über dem Polynomring K[x] durch die Operation

K[x] x V

-+

(j, v)

V,

f-7

f(o:)(v).

Dies ist die Struktur von V als o:-Modul, die wir schon betrachtet haben; die Wahl von 0: macht V zu einem Modul über einem Hauptidealring, nämlich K[x]. Die Struktur von Moduln über Hauptidealringen kann man gut beschreiben, (11.6). Diese Beschreibung ist der eigentliche Gehalt der Jordansehen Normalform. Sei M ein Modul über R, und sei End(M) der Ring der Endomorphismen der additiven Gruppe (M, +). Wie bei Gruppenoperationen entspricht der Operation R x M -+ Mein adjungierter Homomorphismus von Ringen mit 1

(8.5)