201 42 15MB
German Pages 301 [304] Year 1989
Mathematik •• für Ökonomen Lineare Algebra (mit linearer Planungsrechnung)
Von
Dr. Reiner Horst Professor für Operations Research in der Abteilung Mathematik der Universität Trier
2., verbesserte Auflage
R. Oldenbourg Verlag München Wien
CIP-Titelaufnahme der Deutschen Bibliothek Horst, Reiner: Mathematik für Ökonomen / von Reiner Horst. — München ; Wien : Oldenbourg. Lineare Algebra : (mit linearer Planungsrechnung). - 2., verb. Aufl. - 1989 ISBN 3 - 4 8 6 - 2 1 2 6 8 - 0
© 1989 R. Oldenbourg Verlag GmbH, München Das Werk außerhalb lässig und filmungen
einschließlich aller Abbildungen ist urheberrechtlich geschützt. Jede Verwertung der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzustrafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverund die Einspeicherung und Bearbeitung in elektronischen Systemen.
Gesamtherstellung: Rieder, Schrobenhausen
ISBN 3-486-21268-0
Inhaltsverzeichnis 1 MATRIZENRECHNUNG, 1. Teil 1.1 Definition von Matrix und Vektor 1.2 Elementare Rechenoperationen 1.2.1 Gleichheit, Ungleichungen
Seite 1 1 11 11
1.2.2 Transponieren 15 1.2.3 Addition und Subtraktion von Matrizen 17 1.2.4 Multiplikation von Matrizen mit einer Zahl .... 19 1.2.5 Multiplikation zweier Matrizen
22
1.2.6 Blockmatrizen
46
Aufgaben zu Kapitel 1 Lösungen der Aufgaben zu Kapitel 1
51 58
2 LINEARE GLEICHUNGSSYSTEME
70
2.1 Definition und weitere Beispiele
70
2.2 Geometrische Interpretation und Lösungsmengen
74
2.3 Das Gaußsche Eliminationsverfahren 82 2.4 Lineare Gleichungssysteme mit mehreren rechten Seiten 100 2.5 Rechenaufwand, Probe, Fehlerquellen
104
Aufgaben zu Kapitel 2 Lösungen der Aufgaben zu Kapitel 2
110 113
3 MATRIZENRECHNUNG, 2. TEIL n
3.1 Der Vektorraum ]R
122 122
3.1.1 Linearkombination, lineare Unabhängigkeit .... 123 3.1.2 Lineare Teilräume, Basis, Dimension
131
3.1.3 Abstrakte Vektorräume (Ergänzung)
146
Aufgaben zu Abschnitt 3.1
148
Lösungen der Aufgaben zu Abschnitt 3.1
152
VI
Inhaltsverzeichnis
Seite 3.2 Rang einer Matrix, Lösbarkeitskriterium für lineare Gleichungssysteme 3.2.1 Rang einer m x n-Matrix
162 162
3.2.2 Lösbarkeitskriterium für lineare Gleichungssysteme
168
Aufgaben zu Abschnitt 3.2
180
Lösungen der Aufgaben zu Abschnitt 3.2
183
3.3 Determinanten, lineare Transformationen
188
3.3.1 Determinanten
188
3.3.2 Lineare Transformationen
199
Aufgaben zu Abschnitt 3.3
209
Lösungen der Aufgaben zu Abschnitt 3.3
210
3.4 Eigenwerte und quadratische Formen
214
3.4.1 Eigenwerte und Eigenvektoren einer quadratischen Matrix
214
3.4.2 Eigenwerte und Eigenvektoren symmetrischer Matrizen
217
3.4.3 Quadratische Formen
227
Aufgaben zu Abschnitt 3.4
231
Lösungen zu den Aufgaben zu Abschnitt 3.4
231
4 LINEARE OPTIMIERUNG 4.1 Der Simplex-Algorithmus
234 234
4.1.1 Definition eines linearen Optimierungsproblems 234 4.1.2 Normalform eines linearen Optimierungsproblems 240 4.1.3 Der Simplexalgorithmus
242
4.2 Behandlung des allgmeinen linearen Optimierungsproblems
261
Aufgaben zu Kapitel 4
272
Lösungen der Aufgaben zu Kapitel 4
275
LITERATUR
284
SACHVERZEICHNIS
286
Vorwort 1. Zielgruppe, Voraussetzungen: Dieser Band ist erster Teil eines zweibändigen Kurses zur Mathematik für Studienanfänger; der zweite Teil wird Analysis behandeln. Das vorliegende Buch ist aus langjähriger Lehrerfahrung an verschiedenen Universitäten und Fachhochschulen hervorgegangen; es basiert insbesondere auf einer gleichnamigen Veranstaltung, die ich mehrfach an der Universität Oldenburg durchgeführt habe. Die Stoffauswahl berücksichtigt zahlreiche Manuskripte entsprechender Lehrveranstaltungen an Universitäten und Fachhochschulen, aber auch eigene Erfahrungen in der mathematischen Analyse wirtschaftswissenschaftlicher und ingenieurwissenschaftlicher Probleme in Forschung und Praxis. Die Darstellung richtet sich vorwiegend an Studienanfänger der Wirtschaftswissenschaften an Universitäten und Fachhochschulen, aber auch an in der Praxis Tätige, die einige Sachverhalte und Rechenverfahren nachschlagen wollen. Die Anwendungsbeispiele sind nahezu sämtlich aus dem Bereich der Wirtschaftswissenschaften gewählt; die gerade für Ökonomen besonders relevanten Kapitel sind sehr ausführlich gehalten. Da die für die Anwendungen in den Wirtschaftswissenschaften und die für die Anwendungen in den Ingenieur- und Naturwissenschaften wesentlichen Grundgebiete der linearen Algebra in weiten Teilen übereinstimmen, sollte das Buch jedoch ebenso von Nutzen sein für Ingenieure, Naturwissenschaftler, für Leistungskurse und Arbeitsgemeinschaften in der gymnasialen Oberstufe und als einführende Lektüre auch für Studienanfänger der Mathematik.
VIII
Vorwort
Vorausgesetzt werden nur elementare Mathematikkenntnisse, die üblicherweise zu Fachhochschul- oder Universitätsstudium zugelassenen Studierenden vermittelt sind (Sekundarstufe I, "mittlere Reife").
2. Darstellung und "Gebrauchsanweisung": Das Buch ist als Begleittext zu Lehrveranstaltungen und zum Selbststudium konzipiert. Es enthält keinen Stoff, der nicht bei der Analyse wirtschaftswissenschaftlicher (und auch ingenieurwissenschaftlicher) Probleme eine wesentliche Rolle spielt. Die Darstellung ist in weiten Teilen jedoch ausführlicher gehalten als dies in der meist knappen Zeit von Einführungsvorlesungen möglich ist. Sie unterscheidet sich von der vielfach üblichen, klassischen durch weitgehende Ausnutzung des Sachverhalts, daß große Teile der linearen Algebra mit Hilfe des Gauß-Algorithmus und seiner Varianten algorithmisch behandelt werden können. Dieser steht im Mittelpunkt der Darstellung und dient neben der Lösung linearer Gleichungssysteme beispielsweise auch zur Berechnung des Ranges einer Matrix, von Determinanten, Inversen Matrizen und zur Lösung linearer Optimierungsprobleme, aber auch als Hilfsmittel bei Beweisen. Diese Betonung des Gauß-Algorithmus erscheint sinnvoll im Hinblick auf die vorwiegend an der praktischen Anwendung der linearen Algebra interessierte Zielgruppe und die Bedeutung des Verfahrens in der numerischen Praxis. Die Darstellung ist "Computer-nah" durch genaues Auflisten der Rechenschritte bzw. Ablaufdiagramme. Es wird auch auf typisch numerische Fragestellungen wie Rechenaufwand, Rundungsfehler, Auswahl der Pivotelemente und Kondition einer Matrix eingegangen. Zur Diskussion, ob die behandelten mathematischen Aussagen und Rechenverfahren streng bewiesen werden sollten, oder ob einige Plausibilitätsbetrachtungen und das Einüben von Rechenfertigkeiten genügen, nehme ich wie folgt Stellung:
Vorwort
IX
Das Buch enthält sowohl Plausibilitätsbetrachtungen und vielfältiges Übungsmaterial als auch mathematische Beweise. Lediglich in den sehr seltenen Fällen, in denen meines Erachtens ein Beweis nicht wesentlich zum tieferen Verständnis eines Sachverhalts beiträgt und für sich einen sonst nicht benötigten begrifflichen oder beweistechnischen Aufwand verlangt, ist auf eine Wiedergabe ganz oder in voller Allgemeinheit verzichtet. Wer aufgrund der Anforderungen seines Lehr- und Prüfungsplans, aus Zeitmangel oder geringem mathematischen Interesse nur an den Ergebnissen und Rechentechniken interessiert ist, mag das Buch unter Auslassung der Beweise durcharbeiten; die üblichen Klausuren zu entsprechenden Lehrveranstaltungen werden in der Regel damit erfolgreich zu meistern sein. Für die vielfach von Ökonomen und Ingenieuren im Rahmen ihrer Tätigkeit verlangte eigenständige Beurteilung oder Durchführung mathematischer Analysen ist ein tieferes Verständnis der mathematischen Begriffe und Zusammenhänge jedoch unerläßlich. Ohne eine intensive Beschäftigung mit den wichtigsten Beweisen lassen sich in der Regel weder die Möglichkeiten und Grenzen der in den Anwendungen heute gebräuchlichen mathematischen Methoden ausreichend verstehen noch die rasch fortschreitende Entwicklung dieser Methoden mit Verständnis verfolgen. Literatur und Praxis gerade der Wirtschaftswissenschaften enthalten mannigfache Fehlinterpretationen und Fehlschlüsse aus unvollständig verstandener Anwendung mathematischen Instrumentariums. Es gibt keinen sicheren Weg zur korrekten Anwendung von Mathematik, der an ihrer begrifflichen Seite vorbeiführt. Es kann daher nur dringend empfohlen werden, auch die Herleitungen und Beweise durchzuarbeiten
(eventuell
in einer zweiten Lektüre).
Zu Beginn eines jeden Kapitels (Abschnitts) steht eine kurze Inhaltsangabe. Mit Hilfe von insgesamt mehr als 90 Beispielen
X
Vorwort
werden dann Definitionen und Begriffe motiviert, Ergebnisse erläutert und Rechentechniken eingeübt. Der unerläßlichen Selbstkontrolle dienen die zahlreichen vollständig durchgerechneten Aufgaben am Ende der Kapitel (Abschnitte). Mit Ausnahme einiger weniger, durch ein * gekennzeichneter, schwieriger Aufgaben, sollten nach Durcharbeit des Textes alle diese Übungsaufgaben selbständig gelöst werden können. Definitionen und Sätze sind besonders hervorgehoben, das Ende von Beweisen ist durch Q markiert, das von Beispielen durch |. Die Kapitel 1, 2 und 4 können unabhängig vom mathematisch etwas anspruchsvolleren Kapitel 3 durchgearbeitet werden. Kapitel 1 , 2 , 4 mit einigen Ergänzungen aus Kapitel 3 können bequem in einer (einschließlich Übungen) einsemestrigen Veranstaltung von 4 Wochenstunden durchgenommen werden; für den gesamten Stoff sind mindestens 6 Wochenstunden wünschenswert. 3.
2. Auflage:
Einige Schreibfehler in der 1. Auflage sind korrigiert. 4. Dank: Vielen ist zu danken: Meinen Eltern, denen das Buch gewidmet ist; meinen ausgezeichneten Lehrern, für die stellvertretend Herr Professor Dr. K. W. Gaede genannt sei, dessen Vorlesungen Eingang finden in Kapitel 4; den zahlreichen Kollegen und Studierenden für vielfältige Anregungen und Verbesserungsvorschläge; Herrn Professor Dr. J. Herzberger und meinen Oldenburger Tutoren K. Fiedler, W. Hooke, H. Janowski für kritische Durchsicht des Manuskripts; den Damen des Fachbereichs 6 der Universität Oldenburg für ihr gutes und geduldiges Schreiben vielfach abgeänderter Vorlesungsmanuskripte; dem R. Oldenbourg Verlag für sein Interesse und die effiziente Zusammenarbeit. R. Horst
1
Matrizenrechnung, 1. Teil
In diesem Abschnitt werden zunächst die Begriffe Matrix und Vektor eingeführt und danach elementare
Operationen wie Addition, Multiplikation,
Transponieren sowie" die Begriffe Lineares Gleichungssystem, Lineares Ungleichungssystem und Lineares Optimierungsproblem erklärt.
1.1
Definition von Matrix und Vektor
Quantitative Zusammenhänge zwischen ökonomischen Größen werden oft in Tabellenform dargestellt. Beispiel 1: Ein Unternehmen stellt zwei Produkte P^ , P 2 , aus drei Rohstoffen R^, R 2 und R^ her. Für die Produktion einer Mengeneinheit (ME) der Produkte werden Rohstoffmengen verbraucht, und zwar 4 ME von R 1 und 2 ME von R 2 und 3 ME von R 3 für 1 ME von P 1 ; 2 ME von R 1 und 1 ME von R 2 und 4 ME von R.^ für 1 ME von P 2 . Diese Angaben sind auch darstellbar als Schaubild. Schaubild
("Produktionsstammbaum"):
2
! Matrizenrechnung,
I. Teil
Hier können bei der Zuordnung der Zahlen zu den Pfeilen leicht Verwechslungen auftreten, so daß auch eine übersichtliche Darstellung in Tabellenform üblich ist. Tabelle:
J Beispiel 2: In einem landwirtschafltichen Betrieb besteht aufgrund der Boden- und Klimaverhältnisse die Möglichkeit, fünf verschiedene Kulturen K^, K2, . .., Kj- anzubauen. Zum Anbau benötigt man Anbaufläche, Arbeitskräfte, Natur- und Kunstdünger. Die jeweils für den Anbau einer Tonne Saatgut benötigten Mengen dieser Mittel (in geeigneten Mengeneinheiten) lassen sich in Tabellenform darstellen, etwa Tabelle : •^Kultur Mittel""^^.
K
K
K3
K
4 1
K
4
8
10
10
6
0
0
2
4
2
0
3
Anbaufläche
1 2
Arbeitskräfte
4
Naturdünger
6
Kunstdünger
0
3
2 1
5 3
Zum Anbau einer Tonne Saatgut von K^ benötigt man also 2 ME (Flächeneinheiten) Anbaufläche, 4 Arbeitskräfte, 6 ME Naturdünger und keinen Kunstdünger, usw.
1 Matrizenrechnung,
1. Teil
Beispiel 3: Die Außenhandelsbeziehungen zwischen drei Ländern L^, L^, L^ während eines gewissen Zeitraums seien durch folgendes Schaubild dargestellt.
Die Zahlen an den Pfeilen geben dabei den Wert (in geeigneten Geldeinheiten
(GE))der (in Pfeil-
richtung) von einem zum anderen Land exportierten Waren an. L^ exportiert also für 80 GE viaren nach
importiert von
jedoch Waren im Werte
von 10O GE; die Handelsbilanz zwischen L^ und L^ ist ausgeglichen (Gegenseitiger Import = Gegenseitiger Export), usw. Da insbesondere bei einer großen Anzahl betrachteter Länder eine solche anschauliche Darstellung unübersichtlich werden kann, wird auch hier häufig eine Tabellenform gewählt. Tabelle
(Export-Import):
s. nach von ^ v L
1
L
2
L
3
L
1
0
L
2
L
3
80
50
100
0
70
50
90
0
3
4
1 Matrizenrechnung,
1. Teil
Beispiel 4: Ein in drei verschiedenen Produktionsstätten P^, Pjf P3 hergestelltes Gut soll auf vier Warenlager L^, L^, L^, L^ verteilt werden. Die Kosten für den Transport einer Mengeneinheit von jeder Produktionsstätte P^ (i= 1,2,3) zu jedem Lager L^ (j = 1,2,3,4) sind in folgender Tabelle angegeben. Tabelle
(Transportkosten pro ME): nach
von
\ P
1
P
2
P,
L
1
L
L
2
3
L
4
12
30
50
10
70
33
40
60
40
8
70
20
Die Tabellen der Beispiele 1 bis 4 bestehen im wesentlichen aus rechteckigen Anordnungen von reellen Zahlen. Ein solches rechteckiges Zahlenschema heißt Matrix. Die Zahlen heißen Elemente der Matrix. Offenbar sind in diesen Beispielen nicht nur die Größen der auftretenden Zahlen wichtig, sondern auch die Stellen, an der diese jeweils im Rechteckschema stehen. Zur Festlegung der Position eines Elementes einer Matrix numeriert man die Zeilen der Matrix von oben nach unten, ihre Spalten von links nach rechts. Beispiel 5: Die Matrix aus Beispiel 1 hat 3 Zeilen und 2 Spalten: Spalte 1
Spalte 2
Zeile 1
4
2
Zeile 2
2
1
Zeile 3
3
4
Zeile 1 enthält die Zahlen 4 und 2, Spalte 1 besteht aus den untereinander angeordneten Zahlen 4, 2, 3, usw
1 Matrizenrechnung,
1. Teil
Die Position eines Elementes der Matrix ist festgelegt durch Angabe sowohl der Zeile als auch der Spalte, der dieses Element angehört. In der mathematischen Behandlung von Matrizen bezeichnet man die Elemente mit kleinen lateinischen Buchstaben, die zwei Indizes tragen, etwa a^^. Der erste Index (hier i) gibt die Zeilennummer, der zweite Index (hier j) gibt die Spaltennummer des Elements a ^
an.
Durch Angabe von i (Zeilenindex = erster Index) und j (Spaltenindex = zweiter Index) ist die Position des Elements a. . in der Matrix also festqeleqt. a_-. ist r 23 ^ beispielsweise das Element in Zeile 2 und Spalte 3. Die Zahl der Zeilen und Zahl der Spalten definiert die Größe einer Matrix. Eine Matrix mit m Zeilen und n Spalten hat offenbar m»n Elemente Definition 1.1: Ein rechteckiges Zahlenschema von m»n reellen Zahlen a^.
(i = 1,...,m ;j = 1,...,n) der Form l
11
A: = (a . . ) :21 =
22
m1
m2
heißt reelle
1n
'12
1
2n
m x n - Matrix
(Sprechweise: "m Kreuz
n Matrix" oder "m mal n Matrix"). Die reellen Zahlen
a^
(i = 1,...,m ; j = 1,...,n)
heißen Elemente der Matrix; m heißt Zeilenzahl, n heißt Spaltenzahl. Matrizen werden mit großen lateinischen Buchstaben bezeichnet oder durch ihr in Klammern gesetztes "allgemeines" Element. Manchmal werden Zeilen- und Spaltenzahl hinzugefügt. Für die Matrix aus Definition 1.1 sind so folgende Symbole gebräuchlich: A
,
(a. .) J
,
A
,
(a. . ) J m, n
5
6
1 Matrizenrechnung,
1. Teil
Beispiel 6: Die Matrizen der Beispiele 1 bis 4 lauten A
A
B
=
B
2
2
1
2
1
4
1
4
8
10
10
6
6
0
0
2
4
2
0
i =
3
\° C
D
= C 3,3
= °3,4
(Beispiel 1),
3 4
3,2
4,5
4
=
80
50
1 00
0
70
50
90
o ,
12
30
50
10
70
33
40
60
40
8
70
20
(
Dabei ist beispielsweise b
23 =
10;
c
22 =
0
i
0
=
'
d
34
a =
11
=
(Beispiel 2) ,
(Beispiel 3) ,
\
I
(Beispiel 4) ,
4, a 32 = 4; b 3 5 = 4,
20.
J
Beispiel 7: Beispiele 1 und 2 lassen sich zu einem allgemeinen Produktionsmodell verallgemeinern. Mit Hilfe von m "Produktionsfaktoren" F„, . . . , F sollen n Produkte m 1 P^, ..., P n hergestellt werden. Zur Herstellung von einer ME des Produktes P. benötiqe man a.. ME des D i: Produktionsfaktors F.. Die Matrix A = (a..) qibt dann vollständige Auskunft über die ' benötigten Rohstoffmengen. Häufig treten Matrizen auf, die nur aus einer Zeile oder aus einer Spalte bestehen.
1 Matrizenrechnung,
7
1. Teil
Definition 1.2: Eine m x1 - Matrix heißt Spaltenvektor
mit m
Komponenten, eine 1 x n - Matrix heißt Zeilenvektor mit n Komponenten. Da ein Spaltenvektor nur aus einer Spalte, ein Zeilenvektor nur aus einer Zeile besteht, genügt es, seine Elemente (die meist Komponenten genannt werden, s. Definition 1.2) in der allgemeinen Darstellung mit einem Index zu versehen. Dabei trennt man bei Zeilenvektoren die Komponenten durch Kommata. Mit reellen Zahlen a^
(i = 1,..., m
bzw. i = 1,..., n) erhält
man damit die Darstellungen
a
2
für den Spaltenvektor mit m Komponenten,
(a^ , a j , . . . ^ ) für den Zeilenvektor mit n Komponenten.
Beispiel 8: Ein Unternehmen das 10 Güter verkauft, kann die in einem Monat verkauften ME der Güter als Zeilen(oder Spalten-) Vektor mit 10 Komponenten darstellen. Die erzielten Preise pro ME der Güter bilden einen weiteren Vektor mit 10 Komponenten. Bezeichnung: Spaltenvektoren werden wir durch kleine lateinische Buchstaben mit darüber gesetztem Pfeil bezeichnen, etwa
|
8
1 Matrizenrechnung, 1. Teil
Die zugehörigen Zeilenvektoren bezeichnen wir durch ein zusätzliches hochgestelltes T, also
-V
T
a
=
( a
1 '
a
2
a
m)
•
Der Sinn dieser letzten Bezeichnungsweise wird im nächsten Abschnitt 1.2 erläutert . Wir geben noch einige ergänzende Bemerkungen und Definitionen: (i) Vektoren lassen sich auch unmittelbar ohne den Begriff einer Matrix definieren als geordnete Zusammenfassung
(auch "n-Tupel" genannt) von n reellen
Zahlen in Form einer Spaltenanordnung
(Spaltenvektor
mit n Komponenten) oder einer Zeilenanordnung
(Zeilen-
vektor mit n Komponenten). (ii) Gegeben sei eine m x n - Matrix A = (a..). _y rp -1-1 a. :=(a.„, a . - , .... a. ), dessen l i1' i2' in Komponenten die Elemente der i-ten Zeile von A Der Vektor
sind, heißt i-ter Zeilenvektor von A. D-er Vektor
/
a
1 j \
•
f
dessen Komponenten die Elemente der .i-ten Spalte von A sind, heißt j-ter Spaltenvektor von A. Eine m x n - Matrix A besitzt dann m Zeilenvektoren mit jeweils n Komponenten und n Spaltenvektoren mit jeweils m Komponenten. (iii) Eine Matrix, deren Elemente alle gleich Null sind, (a^ . = 0 (i = 1,...m; j = 1,...,n)) heißt Nullmatrix,
1 Matrizenrechnung,
(iv)
1. Teil
Ist m - n (Zeilenzahl = Spaltenzahl) so heißt die m x n - Matrix A quadratisch.
(v)
Bei einer quadratischen Matrix A die Elemente a ^ ,
bilden
n, n 22' ' ' ' ' nn
Sl
a
nannte Hauptdiagonale
so
9e~
(Diagonale von links
oben nach rechts unten). (vi)
Eine quadratische Matrix heißt Diagonalmatrix, wenn alle Elemente außerhalb der Hauptdiagonalen gleich Null sind. Sie hat die Form 0
/ a 11 0 D
n, n
0
. .
0
0
. .
0
a
22 0
0
a
0
\
33
0
Eine (nxn)-Diagonalmatr Hauptdiagonalen gleich Eins sind, heißt Einheitsmatrix
I .
/1
0
0
0
0
1
0
0
0
0
1
0
\0
0
0
1 / 1
I = n
\
Die Spaltenvektoren der Einheitsmatrix I heißen
M e
i =
Einheitsvektoren; Bezeichnung:
0
0
xJ
/°\
/ ' • • •,en
Vi
9
10
1 Matrizenrechnung,
1. Teil
Beispiel 9: Die Spaltenvektoren der Matrix aus Beispiel 1 lauten 2 4 ' 2
/
3 ,
1 ,4
. Ihre Komponenten geben jeweils
die zur Herstellung einer ME von P^ bzw. von P^ benötigten Rohstoffmengen an. Die Zeilenvektoren sind (4,2), (2,1), (3,4).
Beispiel 10: Die Matrix aus Beispiel 3 ist quadratisch. Die Elemente der Hauptdiagonalen sind alle gleich Null.
|
1 Matrizenrechnung,
1.2
Elementare Rechenoperationen
Die folgenden für Matrizen besprochenen Begriffe und Operationen gelten auch für Vektoren, die ja als spezielle Matrizen definiert wurden (vgl. Definition 1.2). 1.2.1 Gleichheit, Ungleichungen Beispiel 11: In Beispiel 1 sind die von dem betreffenden Unternehmen zur Herstellung von jeweils einer ME der Produkte P^, P2 benötigten Rohstoffmengen in der Matrix A = (a..) =
4
2
2
1
.3
4
P
gemäß R
1
R
2
R
3
1
P
2
4
2
2
1
3
4
gegeben. Wir nehmen an, es gebe ein zweites Unternehmen, das ebenfalls die Produkte P^, Pj aus den Rohstoffen R^, R 2 , R 3 herstellt. Die A entsprechende Matrix für dieses Unternehmen sei
B = (b..) =
b
1 1 b 12
b a
b
T + a
Im Gegensatz zur Multiplikation reeller Zahlen, bei der ein Produkt nur dann gleich Null ist, wenn wenigstens ein Faktor verschwindet, kann das Skalarprodukt zweier Vektoren gleich Null sein, obgleich keine einzige Komponente der beteiligten Vektoren verschwindet. Beispiel 23: Das Skalarprodukt der Vektoren a
und
1
b
=
3 -6
ist a
T
b
= 6-1+2-3-2-6
0. _J
1 Matrizenrechnung,
1. Teil
Beispiel 23a: Eine Volkswirtschaft exportiert x^ Mengeneinheiten und importiert Mengeneinheiten. Mit der Interpretation "Import gleich negativer Export" kann man x^ und -Xj zu einem Vektor zusammenfassen. Der durchschnittliche Preis der Importgüter betrage p^, der durchschnittliehe Preis der Exportgüter p^ Dann gilt mit p 1 r |P2
->• T
p
X
1
X
X
1
2
= 0
genau dann, wenn das Exportvolumen p^ x ^ mit dem Importvolumen X2 übereinstimmt (ausgeglichene Handelsbilanz). | Vektoren, deren Skalarprodukt verschwindet, sind für viele weitere Anwendungen von Bedeutung, so daß man hierfür einen eigenen Begriff eingeführt hat. Definition 1.8: Zwei Vektoren
a
, 5
deren
w
T Skalarprodukt
a
b = 0
ist, heißen
orthogonal oder zueinander senkrecht. Der Begriff orthogonal (=senkrecht) stammt aus der geometrischen Interpretation des Skalarprodukts 2 für Vektoren im IR (der (euklidischen) Ebene).
25
26
1 Matrizenrechnung,
1. Teil
Skizze:
a b
b1
a1
Vektoren sind dort als Punkte bzw. Pfeile vom Ursprung des kartesischen Koordinatensystems zu diesen Punkten darstellbar; ihre Komponenten entsprechen den Koordinaten dieser Punkte. Für das Skalarprodukt gilt dann a
T
S = |a| |S| cos d ,
(1)
wobei |a| und |ß| die Längen (Beträge) der Vektoren (Pfeile) a und ß sind und a der von a und ß eingeschlossene Winkel ist. Dies sieht man leicht wie folgt ein: Es ist
a = ai
-
ci2
(vgl. Skizze) und
cos a = cos (ai - a i ) = cos ai cos az + sin a i sin ct2 (2) nach einem bekannten Additionstheorem für trigonometrische Funktionen (vgl. Formelsammlungen). Mit den Definitionen von Sinus und Cosinus an rechtwinkligen Dreiecken läßt sich aus der Skizze ablesen: COS Oll =
sin ai
a
1
, COS C(2 =
s m oi2
b
1
,
1 Matrizenrechnung,
1. Teil
Eingesetzt in (2) folgt cos a
1
(a-1 b- + a 20
2
) =
woraus sich nach Multiplikation mit |a|-|ß| Gleichung (1) ergibt. Für Vektoren
a , 5
mit |a| + 0 ,
|S| =(=0
ver-
schwindet nach (1) das Skalarprodukt aber nur für cos a 0, also a = , was heißt, daß a und b aufeinander senkrecht stehen. Wir wenden uns der Multiplikation allgemeinerer Matrizen zu, die wir durch folgendes Beispiel motivieren. Beispiel 24 (zweistufige Produktion); Ein Unternehmen produziere aus zwei Rohstoffen R.j , R2 zunächst drei Zwischenprodukte (Halbprodukte) Z^ , Z2» Z^. Aus diesen Zwischenprodukten werden dann zwei Endprodukte P^, P2 hergestellt. Ganz ähnlich wie in Beispiel 1 ergibt sich dann ein "zweistufiger Produktionsstammbaum":
27
28
1 Matrizenrechnung,
1. Teil
Die an den Pfeilen stehenden Zahlen geben an, wieviele Mengeneinheiten (ME) eines Rohstoffes oder Zwischenprodukts benötigt werden zur Herstellung einer ME des entsprechenden Zwischen- oder Endprodukts . Analog zu Beispiel 1 können wir dies auch in zwei Tabellen angeben: 1. Produktionsstufe: ^Zwischenprodukt Roh stoff — R R
Z
1 2
1
Z
2
2 3
1 2
P
P
Z
3
1 2
2. Produktionsstufe: —»-^Endprodukt Zw. -produìtt" Z Z Z
1
2 1
1 2
0
3
2
3 2 4
mit den beiden Matrizen A =
und B
'2 3 ' 1 2 0
Gesucht ist die Matrix C = (c^j)
4 i die den Ver-
brauch der Rohstoffe R 1 , R2 für je eine ME der Endprodukte P P2 angibt gemäß -~Jirodukt Rohstoff---«^ R R
1 2
P C c
1
11 21
P
2
c
12 22
c
1 Matrizenrechnung,
Zur Bestimmung von c ^
1. Teil
(benötigte ME von R^ zur
Herstellung von einer ME von P^) betrachten wir im Produktionsstammbaum die Pfeilfolgen von R nach P.. Es sind f R |y
^
^
p
und
i) ' D a s
Zwisc;
1
henprodukt Z 3 wird
nicht benötigt zur Herstellung von P^. Zur Herstellung einer ME von P^ braucht man 2 ME von Z^ und 1 ME von Z2- Zur Herstellung einer ME von Zi benötigt man 2 ME von R^; zur Herstellung einer ME von Z 2 braucht man 1 ME von R 1 . Über Z. gehen also 2-2 ME von R- in die Produktion einer ME von P 1 , über Z 2 sind es 1-1 ME von R 1 . Insgesamt ergibt sich (wenn man das nichtbenötigte Z^ formal mit aufführt) c
= 2-2 + 1-1 + 1-0 = 5 .
Auf die gleiche Weise erhalten wir den Bedarf an R 2 zur Herstellung einer ME von P^ zu '21
= 3-2 + 2-1 + 2-0 = (über (über Z V 2>
(über z3)
und analog c 1 2 = 2.3 + 1-2 + 1-4
=
12
sowie 22
= 3-3 + 2-2 + 2-4
Also ist C =
5 8
12 21
21
29
30
1 Matrizenrechnung, 1. Teil
Wir haben die c.. aus dem Produktionsstammbaum gewonnen und wollen jetzt notieren, durch welche Rechenoperationen sie aus den gegebenen Matrizen A und B folgen. Hierzu benötigen wir die Zeilenvektoren von A =(2,1,1)
,
a 2 T = (3, 2, 2)
und die Spaltenvektoren von B = E. 2 = Man erkennt, daß die Elemente von C Skalarprodukte aus den Zeilenvektoren von A und den Spaltenvektoren von B sind: C
11 21 "
a
t
1 b '1
'
c
12 ~ a1
2 D '1
'
C
22 " a 2
2 Ä
T
2
' '
allgemein: c. . = a.T'S . lj l > j
(i = 1 ,2; Jj = 1 ,2) .
Das Element c.. in der i-ten Zeile und Jj-ten i: Spalte der Matrix C ist das Skalarprodukt des i-ten Zeilenvektors von A mit dem j-ten Spaltenvektor von B. | Definition: 1.9.: Es seien A eine mxn-Matrix, B eine nxp-Matrix. Das Produkt A-B = AB der Matrizen A und B ist gegeben durch die m xp-Matrix C = (c..) mit n T C ij = *i B ' j = k f a ik b kj f ü r 1 = 1 m;j = 1,. . . ->- T Hierbei sind au die Zeilenvektoren von A, ßA j die Spaltenvektoren von B.
1 Matrizenrechnung,
1. Teil
Bemerkungen: 1. Zwei Matrizen können nach Definition 1.9. nur multipliziert werden, wenn die Spaltenzahl der 1. Faktormatrix A (= Anzahl der Komponenten ihrer Zeilenvektoren) mit der Zeilenzahl der 2. Faktormatrix B ( = Anzahl der Komponenten ihrer Spaltenvektoren) übereinstimmt (vgl. auch Def. 1.7 und Beispiel 22). 2. Das Ergebnis ist eine Matrix, deren Zeilenzahl mit der der 1. Faktormatrix A, deren Spaltenzahl mit der der 2. Faktormatrix B übereinstimmt. Das Produkt einer mxn-Matrix A mit einer (nxp)-Matrix B ergibt eine m x p-Matrix C« Merkschema: gleich n,p
C m,p
3. Für zwei Matrizen A und B wird das Produkt C = A-B also nach der Merkregel "Zeile mal Spalte" (im Sinne des Skalarprodukts) gebildet:
:
A
B
c
31
32
1 Matrizenrechnung,
1. Teil
4. Für weniger Geübte ist auch das folgende Rechenschema zweckmäßig:
1 j
B A
'//////
'
um! ii
4+0-1-2-0
b)
3-4 + 5-1 + 1-0
3 - 3 + 5(-1)+1 - 1
2-4-1-1+0-0
2-3-1 ( - D + 0 - 1
(mit Rechenschema) 2
1
A = -1
3
B =
4 -7/ B A
1 2 - 3 - 1 4
2
1
-1
3
4
-7
1 2
5
9
14
1 8 - 4 -4 10
1•3+0(-1)-2 - 1
7
11 - 2 0 -26 -31
AB
1 Matrizenrechnung,
C)
1 3
5 12 18
2I
11 4 1 \ 2 1 |
1
0
Das Produkt
1
2
2
1
3
1
3
4
U
d)
3 3
1\ 0
=
1. Teil
is
ist nicht
definiert.
|
Beispiel 26 (Matrizenmultiplikation von Vektoren): a) Die Multiplikation eines Zeilenvektors mit n Komponenten ( 1 xn-Matrix) und einem Spaltenvektor mit n Komponenten (n x1-Matrix) ergibt das Skalarprodukt mit einer reellen Zahl als Ergebnis (1 x1-Matrix): -+T b = (a ,...,a ) a 1 n
= a.b1 1 + a-b,. 2 2 + . . . +n an b .
b) Die Multiplikation eines Spaltenvektors mit nKomponenten (n x1-Matrix) mit einem Zeilenvektor mit n-Komponenten (1 xn-Matrix) ergibt eine n x n-Matrix.
a2b1 a 2 b 2
1b2
a,b 1 n\ a_b 2 n
ta \ nb.. 1 a nb-2
anbn/
a
(br
b
' n> =
1b1
a
J
Aus Beispiel 26 a) und b) folgt auch, daß man bei Matrizenmultiplikationen i.a. die Reihenfolge der Faktoren nicht vertauschen kann: A • B * B A
33
1 Matrizenrechnung, 1. Teil
34
Beispiel 27 (zu A • B
C)
1 3 U
B-A) :
1
•Ii ? U t) 0
=
2
3 3
8
5 12 18
(vgl. Beispiel 25 c),
ist nicht definiert.
J
Wie schon beim Skalarprodukt erkannt, kann das Produkt zweier Matrizen die Nullmatrix (Matrix mit allen Elementen 0) sein, ohne daß ein Faktor eine Nullmatrix ist. Beispiel 28: AA BB A
15 4 =
-1 -2 | 0
0
0
0
, ' B "=
M 12
1
2[
I Matrizenrechnung,
1. Teil
Rechenregeln: Im folgenden Satz sei vorausgesetzt, daß Zeilenund Spaltenzahlen der auftretenden Matrizen so gewählt werden, daß die Matrizenoperationen durchführbar sind. Die Matrizen sollen in diesem Sinn "passend" sein. Satz 1.3 Es seien a £ IR , I eine jeweils passende Einheitsmatrix und A,B,C passende Matrizen. Dann gilt (i)
a (AB) = (a A ) B = A (aB);
(ii) A (iii) A (IV) (A (V) A
I= A , I A = A; (B + C) = A B + A C; + B) C = A C + B C ; (B C) = (A B) C; T T T (VI) (AB) = B A . Zur Vertiefung der Matrizenmultiplikation wollen wir die Aussagen von Satz 1.3. beweisen. Das Ergebnis der linken Seite einer der Gleichungen in Satz 1.3 sei jeweils eine Matrix C = (c^j), das Es der rechten Seite eine Matrix C' = genügt dann zu zeigen, daß für die "allgemeinen" Elemente gleicher Position jeweils c\ . = c1. . gilt. zu (i) : ~C~;= a (A B) , C1 ; = (a A) B. Nach den Definitionen 1.6 und 1.9 und einer Klammerregel für das Rechnen mit reellen Zahlen (Distributivgesetz) gilt: c ± j = a (E a. k b k j ) = £ « * a i k ) b k j = c!. . a (AB) = A (aB) beweist man analog.
35
36
1 Matrizenrechnung,
zu ( i i ) : e
k ;
.
C : = A I
d e r
D a m i t c.
i:
.
, C ' : = A.
E i n h e i t s m a t r i x
I
=
E
k
a.,
ik
e,
.
kj
=
a . .
•
e
j
k
Elemente =
^
k
J
j
=
l
a
E
a ..
k
Aussage
ik
ik
(IV)
( b
E
a . .
C':=AB
b,
.
k:
=
E b ,
r
+
a
ikckj>
c ' . .
b e w e i s t man a n a l o g
a.,
ik
c,
lk
k
folgt
= £
zu (V) : C: = A ( B C ) , , k
=
b e w e i s t man a n a l o g .
Nach den D e f i n i t i o n e n
=
g i l t
1
(iii) : C : = A ( B + C ) ,
c. . inJ
Für d i e
w i r d
I A = A zu
1. Teil
(Übungsaufgabe).
C':=(AB)C.
kr
c
.) =
r Jr
E E
. k r
a .. ik
b.
kr
c . rn J
Element in Zeile k und Spalte j von B C =
E
(E
\ v
K
. _
a ., b, ) c . = c ! . . i k kr r] 13 ^
s
Element in Zeile i und Spalte r von AB B e n u t z t wurden e i n e Klammerregel len
(Distributivgesetz)
für r e e l l e
und d i e T a t s a c h e ,
b e i e n d l i c h e n Summen n i c h t auf d i e d e r A d d i t i o n ankommt.
Zah-
daß es
Reihenfolge
1 Matrizenrechnung,
1. Teil
m rp C' .-= B A
T zu (VI) : C:= (A B)
Nach Definition der transponierten Matrix ist cij Element in Zeile j und Spalte i j gleich dem Elemer der Matrix A B , also c. . = E a ., b, . ij jk ki k T T a ^ die Elemente von Seien b^j = bj^ und a^j T T B und A . Dann können wir weiterschreiben: = J a jk b ki = l a kj b ik = l b ik a kj = c ij Beispiel 29: 3
a)
2
1 0 0
2 -1
0 1 0
5" 1 +3-0 + 2-0 - c 3 2
b)
A =
0 0 1 •0 •0
51 •
4 1
3 -1
\o
1
•0
2 - 1
1 3
n
5 I2 -1 4 A B 17 7 BT A T =
-2 1
B =
0 1 5 7
4 I3 -
(A B)
17 5 17 5 _J
37
1 Matrizenrechnung,
38
1. Teil
Multiplikation einer Matrix mit einem Spaltenvektor Wegen seiner besonderen Bedeutung für die Praxis sei als weiterer wichtiger Spezialfall der Matrizenmultiplikation die Multiplikation einer Matrix mit einem passenden Spaltenvektor noch gesondert diskutiert. Nach Definition 1.9
ist das Produkt einer m xn-
Matrix A = (a. .) und einer nx1-Matrix (Spaltenvek-
tor mit n Komponenten)
eine m x 1 - Matrix
x= x
n
(Spaltenvektor mit m-Komponenten) b=
gemäß b m
I a 11 • * • a 1n\ 2n
21
w
\ m1 b1 = mit
311 X1
b2 = a21
m
X1
+ . . . + a- x 1n n + . . + a~ 2n xn
m1 1
in Kurzform:
w
. +a x mn n
A x =b
Beispiel 30: [ 1
5
3
1-2+5-1 +3-3
I 0
2-1
0-2+2-1 -1-3
16 -
1
1 Matrizenrechnung,
1. Teil
Beispiel 31: a) Im Beispiel 12 ist die Multiplikation einer Matrix mit einem Vektor bereits aufgetreten. Ist der Verbrauch der drei Rohstoffe R^,!^,!^ zur Herstellung einer Einheit der Produkte P.j bzw. durch die dortige Matrix A =
4
2
2
1
3
4
gegeben (vgl. Beispiele 1 und 12),
und fassen wir die Anzahlen der produzierten ME x von P 2 zum Vektor x =
x.j von P^ und
sammen, so ergibt sich der Vektor der dann verbrauchten Rohstoffmengen 4x
1
Ax =
+ 2X2\ + x
4
2
—
z l 1 + 4x~
l
3x
2
2
1
3
4
»
X X I X
2
b) Ist andererseits wie in Beispiel 12 der Vektor 'M
=
120' 100
der verfügbaren Roh-
180, stoffmengen gegeben, so kann man nach den produzierbaren Mengen x^ und x 2 fragen, also nach Vektoren x = | X 1 , die zu gegebener Matrix A und gegebenen Vektor b die Ungleichung A x i b erfüllen. Da keine negativen Mengen produziert werden können, muß zusätzlich x 2 0 gelten, wobei 0 = IQI
der passende Nullvektor ist.
|
39
40
1 Matrizenrechnung,
1. Teil
Definition 1.10; Bei gegebener m x n-Matrix A, gegebenem mx1-Vektor b und variablem (nx1)-Vektor x heißt A x S b lineares Ungleichungssystem. Vektoren x, für die A x S b gilt, heißen Losungen des linearen Ungleichungssystems A x ä b . Beispiel 32 (Fortsetzung von Beispiel 31): In Beispiel 31 b) wird man oft
weiter nach einem
Produktionsmengenvektor x = [ X 1 | \
X
fragen, der unter
2 I
allen im Sinne der verfügbaren Rohstoffmengen zulässigen Vektoren x in einer sinnvollen Weise ein bester Vektor ist. a) Das hierzu benötigte Gütekriterium kann z.B. der Umsatz oder der Gewinn sein. Seien c^ = 10 und c 2 = 20 die pro Mengeneinheit der Produkte P^ und P2 gebotenen Preise und k^ = 6 und k 2 = 11 die jeweiligen Herstellungskosten pro Mengeneinheit. Dann ergeben sich Umsatz U und Gewinn G in Abhängigkeit von den produzierten Mengen zu U = c^ x^ + c 2 x 2 G = (c^ - k ^ ) x^
= lOx^ + 20x 2
+ (c2 - k 2 ) x 2
und
= 4x^ + 9x 2 .
Es stellen sich dann die "Optimierungsaufgaben": Suche unter allen Vektoren x = I ^ | , die Lö\x2>
sungen sind, des linearen Ungleichungssystems
1 Matrizenrechnung,
1. Teil
4x1 + 2x2 S 120, 2x1 +
x 2 S 100,
3x1 + 4X2 S 180, xi S 0, x 2 ä 0 einen, für den die Funktion U
=
C
1
X
1
+
c
X
2
(Umsatz)
2
oder die Funktion (c.
X
V
1
+
x
2
(Gewinn)
maximal wird. b) Man kann auch nach Produktionsmengen fragen, die die vorhandenen Rohstoffe (oder bei anderen Aufgaben dieses Typs die verfügbaren Kapazitäten von Produktionsmitteln) völlig ausnutzen. Gesucht sind dann nichtnegative Zahlen x^ und x 2 , für die 4x
1
2x
+
2
120,
2x„ + x 2 = 100, 3x1 + 4x2 = 180 gilt. Definition 1.11: Gegeben seien eine m xn-Matrix A, ein m x1-Vektor b, ein n x 1 -Vektor c. Die Aufgabe, unter allen n x 1 Vektoren x, die Lösungen der linearen Ungleichungssysteme Ax S b
und
x 5 0
sind, einen zu finden, der die lineare Zielfunktion z := c x maximiert, heißt lineares Optimierungsproblem. Schreibweise:
max z, = c x A x ä b, x 2 0
41
42
1 Matrizenrechnung, 1. Teil
Definition 1.12: Gegeben seien eine mxn-Matrix A und ein m x1-Vektor b. Die Vektorgleichung A x = b heißt dann lineares Gleichungssystem in n-Unbekannten x, , ... , xx_ - Alle n x1-Vektoren x, für die 1 ' •' • ' n A x = b gilt, heißen Lösungen des linearen Gleichungssystems. Wir betrachten noch sogenannte zweistufige lineare Gleichungssysteme im Sinne von Beispiel 33 (zweistufige Produktion); Wir führen Beispiel 24 weiter. Dort stellt sich die Frage: Wieviele ME der Zwischenprodukte und Rohstoffe benötigt man für die Herstellung von x^ ME des Endprodukts P^ und-x.^ME des Endprodukts Wie schon analog an mehreren Beispielen diskutiert, erhält man aus der 2. Stufe der Produktion z^ = 2x^ + 3x2
ME von Z^
7-2 = + 2x2 z 3 = 0x1 + 4x2
ME von Z2 ME von Z 3 / z^ bzw. mit x = |.. ' | , z» [ ¿ 2 und der Matrix B aus
- G ) •
Beispiel 24;
z
3
1 Matrizenrechnung,
1. Teil
Ebenso ergibt sich aus der Matrix A der 1. Stufe des Produktionsprozesses r 1 = 2 z 1 + 1 z2 + 1 z 3 r^
=
3 z ^
bzw. mit r
+
2 z^
r =
+ 2 z^
ME von R1 ME von
I rll lr2l
(2)
= A z .
Setzt man für 2 in (2) die Beziehung (1) ein, so erhält man r = A B x
= Cx
(3)
mit der Matrix C aus Beispiel 24. Sind umgekehrt die vorhandenen Rohstoffmengen, also r, gegeben, dann kann man fragen, ob damit Endproduktmengen x^, Xj möglich sind, die die gesamten vorhandenen Rohstoffmengen aufbrauchen. Dies ist die Frage nach nichtnegativen Lösungen x des linearen Gleichungssystems (3). Wir bemerken noch, daß wir bei der zuerst behandelten Fragestellung vom bekannten Vektor x der Endproduktmengen ausgehend zuerst die Beziehung (1) zur Berechnung der dazu benötigten Zwischenprodi^ktmengen z und dann die Beziehung (2) zur Berechnung der benötigten Rohstoffmengen notierten. Der Produktionsprozeß wurde "rückwärts" vom Endprodukt zum Rohstoff zurückverfolgt. Bei der zweiten hier angeführten Frage würde man zur Herleitung von (3) vom gegebenen Vektor r ausgehend zuerst Beziehung (2), dann Beziehung (1) aufstellen, den Prozeß also "vorwärts" verfolgen. |
43
44
I Matrizenrechnung,
1. Teil
Zwei- oder mehrstufige Prozesse, bei denen der Übergang von einer Stufe zur nächsten durch geeignete Matrizen erklärt wird, finden Anwendung im Zusammenhang mit sehr vielen Fragestellungen der Wirtschaftswissenschaften (und auch der Technik). Bei der Beschreibung des Gesamtprozesses treten dann Multiplikationen der "Übergangsmatrizen" auf. Wir geben hierzu noch Beispiel 34 (zeitliche Entwicklung eines Marktes): Drei Waschmittel A, B, C teilen sich einen Waschmittelmarkt. Im 1. Monat eines Jahres haben die Waschmittel folgende Marktanteile: A : 5 0 % , B : 4 0 % , C : 10%» Daraufhin startet der Hersteller von C eine großangelegte Werbeaktion mit der Wirkung, daß im 2. Monat folgendes eintritt: Von den "alten" Käufern des Waschmittels A bleiben 60 % ihrer Marke treu, 10 % kaufen B, 30 % kaufen C. Von den Käufern der Marke B kaufen 80 % wieder B, 20 % wechseln zu C, keiner zu A. Von den Käufern der Marke C schließlich bleiben 80 % ihrer Marke treu, je 10 % wechseln zu A und B. Trotz der damit offenbar gewonnenen Marktanteile hat der Hersteller von C sich mit seiner Werbeaktion übernommen; Waschmittel C verschwindet am Ende des 2. Monats vom Markt. Im 3. Monat beobachtet man dann folgendes Käuferverhalten : Die Käufer von C wechseln zu gleichem Teil zu A und B, 80 % der Käufer von A bleiben ihrer Marke treu, 20 % kaufen B. 90 % der Käufer von B kaufen wieder B, 10 % wechseln zu A.
1 Matrizenrechnung,
1. Teil
Wie groß sind die Marktanteile der einzelnen Waschmittel im 2. Monat, wie groß im 3. Monat? Wie in Beispiel 33 liegt ein 2-stufiger Prozeß vor. In Stufe 1 ist der "Zustand" des Marktes durch den "Zustandsvektor" gegeben, der die Marktanteile (in %) der drei Waschmittel A, B, C im 1. Monat angibt. Um die Bruchteile zu erhalten, dividieren wir die das Übergangsverhalten beschreibenden Prozentzahlen jeweils durch 100. Den Marktanteil von A im 2. Monat erhalten wir aus (Alter Marktanteil von A) • (Bei A gebliebener Bruchteil der Kunden) +(Alter Marktanteil von B) • (Von B nach A gewechselter Bruchteil der Kunden) +(Alter Marktanteil von C) • (Von C nach A gewechselter Bruchteil der Kunden). In Zahlen: 50 - 0 , 6 + 4 0 - 0 + 10 - 0,1 = 31 %. Analog erhält man die Marktanteile von B und C im 2. Monat 50-0,1 + 4 0 - 0 , 8 + 1 0 - 0 , 1 = 38 %
(für B)
und 5 0 - 0 , 3 + 40-0,2 + 10-0,8 = 31%
(für C) .
Beschreibt man das Übergangsverhalten der Kunden im 2. Monat durch von A B C
A B C 0,6 0 0,1 0,1 0,8 0,1 0,3 0,2 0,8
0
0,1
0,8
0,1
0,2
0,8j
/
45
46
1 Matrizenrechnung,
1. Teil
so erhält man den Zustandsvektor x (2) der Marktanteile im 2. Monat als ¿(2)
=
A
(1)
j(1)
(1)
Das Übergangsverhalten im 3. Monat ist gegeben durch .
von
nach
A 0,8
A B C
B
c
0,1
0,5 0,5 0
0, 2 0,9 O 0
und der Zustandsvektor x
'0,8 mit A
2 d i e 2 x 2
- N u l l m a t r i x ist.
liefert 16
10
28
50
1
5
4
9
3
10
0
0
1
40
0
0
Ausrechnen
1. Teil
69
2 Lineare Gleichungssysteme In diesem Abschnitt wird nach weiteren Anwendungsbeispielen zunächst aufgezeigt, was alles passieren kann, wenn man lineare Gleichungssysteme lösen will Eindeutige Lösung, unendlich viele Lösungen, keine Lösung, numerische Besonderheiten. Als Lösungsverfahren wird der Gauß'sche Algorithmus mit Varianten beschrieben. 2.1
Definition und weitere Beispiele
In Definition 1.12 wurden bereits lineare Gleichung systeme eingeführt. Zur Erinnerung und Erweiterung: Definition 2.1: Seien a.. , b. für i = 1 , . . . , m ; j = 1 , . . . , n lj i
reelle
Zahlen. Dann heißt das System der m Gleichungen a
11 X 1 + a 1 2 x 2 + ••• + a 1 n X n a-. 0 + . . . + a0 21 x, 1 + a~, 2/ x2 2n nx = 2
a . x . + a _ x_ + . . . + a x m1 1 m2 2 mn n
LGSm,n
=b m
ein lineares Gleichungssystem mit den Koeffizienten a.. !-, , den rechten Seiten b.x und den Unbekannten (oder Variablen) x^ , i = 1 , ... , m ; j = 1 , ... , n . Ein lineares Gleichungssystem mit m Gleichungen und n Variablen sei mit LGSm,n abqekürzt. Mit der ^ Koeffizientenmatrix A = n / dem Vektor
V b=
b m
der rechten Seiten und dem Variablenvektor
'X1 x
läßt sich LGS n
m, n
auch in der Form
2 Lineare Gleichungssysteme
A
X
=b
notieren (vgl. Definition_1.12). X
Jeder
(n x 1) Vektor x =
1
x
für den bei Ersetzen n
der x. durch x. in LGS alle m Gleichunqen erfüllt j 3 m,n sind, heißt Lösung von LGS m ^ . Man schreibt eine Lösung meist in der Form x^ = x^ , x^ = , ••• ' x n = x n Alle Vektoren, die2 Lösungen von LGS sind, bilden 3 Lösunge m, n die Lösungsmenge. Bemerkung: Reellwertige Funktionen f (x^ , ... , x n ) der n Variablen x^ , . . . , x^ heißen linear, wenn sie die Form f^0 und x 2 _> 0 interessiert ist. | Beispiel 39 (allgemeines Produktionsmodell).* In Verallgemeinerung der bisherigen Produktionsbeispiele greifen wir Beispiel 7 auf: Mit Hilfe von m Produktionsfaktoren (z.B. Rohstoffe, Energie, Bearbeitungszeiten, Arbeitskräfte) F. , ... ,F sollen m 1 n Produkte P 1 , ... , P n hergestellt werden. Um 1 ME des Produkts P. herzustellen, habe man a.. ME des D i: Produktionsfaktors F^ einzusetzen (i = 1 , ... , m ; j = 1 , . . . , n) . Der Zusammenhang zwischen den zu produzierenden Mengen x^ (j = 1 , ... , n) und den dazu benötigten Einsatzmengen an Produktionsfaktoren b.l (i = 1 , ... , m) wird durch das LGSm,n
beschrieben.
73
74
2 Lineare
Gleichungssysteme
Output des Modells.
heißt auch Input, x =
Die Frage, welcher Output sich bei vorgegebenem Input erreichen läßt, ist die nach der Lösungsmenge des Gleichungssystems. 2.2
Geometrische Interpretation und Lösungsmengen
Eine lineare Gleichung in 2 Variablen x.. und x„ beI ¿. schreibt bekanntlich eine Gerade in der (x1 , x 9 ) 2 •* T Ebene ]R . Alle Punkte x t(x1 , x^) , für die a
i1 X 1
+ a
i2X2
=b
(1)
i
mit gegebenen Zahlen a ^
, a^ »
gilt, liegen also
auf der durch (1) beschriebenen Geraden. Zum Zeichnen dieser Geraden braucht man nur zwei auf ihr liegende Punkte geradlinig zu verbinden, etwa die
"Achsenabschnitte" b. (x. ,0) mit x 1 = —i1 1 a i1
(aus (1) mit x„ = 0) 2
und (0 , x 0 ) mit x- = 2 2 a±2
(aus (1) mit x. = 0) . 1
Häufig wird (1) auch nach x_ aufgelöst als a.. b. ^ i1 i ,., . , x (1 2 = ~ 1 7 7 X1 + ä 7 7 '> i2 i2 , b. notiert mit dem x--Achsenabschnitt — — und der Steigung
(dem Tangens des Winkels zwia. ~ i2 sehen der Geraden und der x^-Achse).
Punkte
-
(x 1/ x 2 ) , die zwei lineare Gleichungen mit
zwei Unbekannten erfüllen, also Lösungen des LGS^ ^ a
11
X
1
+ a
12X2
a
21
X
1
+ a
22
X
2
= b
1
(1)
= b
2
( 2 )
2 Lineare Gleichungssysteme
75
sind,müssen sowohl auf der Geraden (1) als auch auf der Geraden (2) liegen. Es ist also der Schnittpunkt der beiden Geraden (1) und (2) gesucht. Beispiel 40: Wir betrachten: X 1 1 2" X 1
+ x
2
+ X
2
= 4
(1 )
1
(2)
=
Skizze:
x1 + x 2 = 4
(1) ^x. + x0 = 1
(2)
Schnittpunkt der beiden Geraden ist der Punkt (2,2). Das vorliegende lineare Gleichungssystem besitzt also genau eine Lösung x^ = 2 , x 2 = 2 .
|
Beispiel 41: Bei dem Gleichungssystem •1 2x
x2 =4 2X
2
=8
(1 ) (2)
stellen beide Gleichungen offenbar die gleiche im Beispiel 40 skizzierte Gerade dar (Division von (2) durch 2 liefert (1)). Eine der Gleichungen ist überflüssig, man braucht z. B. nur (1) zu betrachten. Schreibt man diese in der Form
76
2 Lineare
Gleichungssysteme
so erkennt man, daß für beliebige reelle Zahlen t x^ = t , X2 = 4 - t Lösungen des Gleichungssystems sind. Mit der Lösungsmenge L notiert man dies auch in der Form L = •jjx.j , x 2 ) e IR2 | x 1 = t , x 2 = 4 - t , t e ir} . Es gibt unendlich viele Lösungen des Gleichungssystems ("auf einer Geraden liegen unendlich viele Punkte", "zwei zusammenfallende Geraden haben unendlich viele Schnittpunkte") .
|
Beispiel 42: Bei dem Gleichungssystem x1 + x 2 = 4
(1 )
x1 + x 2 = 3
(2)
handelt es sich um zwei parallele Geraden. Skizze:
Es gibt keinen Schnittpunkt und damit auch keine Lösung des Gleichungssystems.
(Dies erkennt man na-
türlich bei diesem einfachen Beispiel auch ohne geometrische Interpretation: Eine Summe kann nicht sowohl den Wert 4 als auch den Wert 3 haben) . Ein lineares Gleichungssystem, das keine Lösung be-
|
2 Lineare Gleichungssysteme
sitzt, heißt inkonsistent. Bei drei Gleichungen mit 2 Unbekannten, also einem 3,2 12
21 X 1
+ a
22 X 2
31 X 1
+ a
11
a a
x2
+ a
a
X
1
(1) (2) (3)
b
32 x 2 = 3
ist ein Punkt (x^ , x 2 ) gesucht, der allen drei Geraden (1) , (2) , (3) angehört. Das LGS 3
2
besitzt also
nur eine Lösung, wenn sich alle drei Geraden in einem Punkt schneiden. Da, wenn wir einmal ausschließen wollen, daß zwei der Geraden zusammenfallen, ein solcher Schnittpunkt eindeutig schon von je zwei der Schnittgeraden bestimmt wird, ist dann eine der Gleichungen überflüssig Besitzt also LGS^
2
(redundant). e
i n e eindeutige Lösung
(x^ , x^)
und sind nicht zwei der drei Geraden identisch, so erhält man (x^ , x.,) auch aus jedem der LGS 2
2
, das
entsteht, wenn man eine der Gleichungen wegläßt. Skizze:
meist nicht in einem Punkt, so daß man bei Gleichungssystemen des Typs LGS^
2
(und erst recht LGS^ ^ mit
m > 3) mit Inkonsistenz rechnen muß.
77
78
2 Lineare
Gleichungssysteme
Natürlich können auch zu einem LGS..
0
j , z
meiner LGS^
(oder allge-
unendlich viele Lösungen existieren,
wenn nämlich alle 3 (m) Gleichungen die gleiche Gerade beschreiben. Eine lineare Gleichung mit drei Variablen i1 1 i2 2 i3 3 i beschreibt eine Ebene im dreidimensionalen Raum 3R3 . Bei Gleichungssystemen des Typs LGS m ^ mit
m
Glei-
chungen und drei Unbekannten gibt es die zu LGS^ ^ analogen Möglichkeiten für die Lösungsmengen: 1. Eine eindeutige Lösung: Alle m Ebenen schneiden sich in einem Punkt (x^ , x^ ,
•
Da
t>ei muß
m ^ 3 sein, da zwei Ebenen sich höchstens in einer Geraden schneiden können. Bei m > 3 treten wieder redundante Gleichungen auf. 2. Unendlich viele Lösungen: Hier gibt es jetzt zwei Möglichkeiten: a) Alle m Ebenen schneiden sich in einer Geraden. In diesem Fall zeigt es sich, daß man eine der Unbekannten beliebig wählen kann und die anderen beiden Variablen sich dann aus dem Gleichungssystem in Abhängigkeit der frei gewählten berechnen lassen (analog zu Beispiel 41).
2 Lineare Gleichungssysteme
b) Alle m Gleichungen beschreiben die gleiche Ebene. Man kann zwei der drei Unbekannten beliebig wählen. 3. Es gibt keine Lösung. Das LGS^ Kein Punkt des
ist inkonsistent.
liegt auf allen m Ebenen.
Für Gleichungen mit mehr als drei Variablen entstehen Verallgemeinerungen von Ebenen, sogenannte Hyperebenen, in höherdimensionalen Räumen, die man sich anschaulich zwar nicht mehr vorstellen kann, die aber mathematisch abstrakt analog zu Ebenen diskutiert werden können. Wir fassen die bisher gewonnene Information für m Gleichungen mit n Unbekannten zusammen: Für ein LGS können folqende Fälle eintreten: m,n = 1 . Es gibt eine eindeutige Lösung. Dann muß m n sein und für m > n treten redundante Gleichungen auf. 2. Es gibt unendlich viele Lösungen. Dabei kann man eine oder zwei oder drei oder ... oder (n - 1) Unbekannte beliebig wählen. 3. Es gibt keine Lösung. Das Gleichungssystem ist inkonsistent . Mit Hilfe des im nächsten Abschnitt vorzustellenden Algorithmus kann man feststellen, welcher der drei Fälle vorliegt und gegebenenfalls alle Lösungen angeben . Es fällt auf, daß ein konsistentes lineares Gleichungssystem entweder genau eine Lösung oder gleich unendlich viele besitzt. Ein lineares Gleichungssystem kann nicht genau 2 oder 3 oder n (n > 1) Lösungen haben. Dies beruht auf der folgenden Eigenart.
79
80
2 Lineare
Gleichungssysteme
Satz 2.1 Sind x ( 1 ) und x ( 2 ) Lösungen eines linearen Gleichungssystems Ax =5, dann ist auch jeder Vektor der Form + (1) „ +(2) + ßx x =a x mit beliebigen reellen Zahlen a und ß , für die a + ß = 1 gilt, eine Lösung des Gleichungssystems. Der Beweis folgt leicht aus den Rechenregeln des Satzes 1.3. Wir setzen x = a x ^ ' t 8x' 2 ' in das Gleichungssystem ein: A
(
aAx(1)+ßAx(2)
=±ü> A ( a J ( 1 ) ) + A ( ß ^ ( 2 > ) iSJ = a £ + ß S = (et + ß) S = b ,
wegen a + ß = 1 . Die über den Gleichheitszeichen angegebenen Marken (iii) und (i) beziehen sich auf die benutzte Rechenregel aus Satz 1.3. Das dritte Gleichheitszeichen gilt, weil x ( 1 ) ,S ( 2 >
Lösungen sind.
Q
Da für a und ß nur a + ß = 1 verlangt wird, hat man mit zwei Lösungen stets auch unendlich viele. Die Aussage aus Satz 2.1 läßt sich auch geometrisch deuten. Wir erinnern dazu an die meist aus der Schule bekannte geometrische Deutung elementarer Rechenoperationen von Vektoren.
2 Ein Vektor in der Ebene 3R
3 (bzw. im Raum IR ) ist
als vom Koordinatenursprung ausgehender Pfeil zu einem Punkt darstellbar, dessen Koordinaten die Komponenten des Vektors sind.
2 Lineare Gleichungssysteme
Skizze :
Multiplikation von x mit einer reellen Zahl a ergibt einen Vektor gleicher Richtung der mit a multiplizierten Länge von x . Zwei Vektoren x indem
und y
1
werden addiert.
man den zu einem der beiden gehörenden Pfeil
parallel so verschiebt, daß sein Anfang im
Endpunkt
des anderen liegt, und als Summe den "resultierenden Vektor" vom Ursprung zum Endpunkt des verschobenen Vektors einträgt. Skizze:
Analog läßt sich die Substraktion von Vektoren geometrisch deuten
(Übungsaufgabe).
Wegen et + 6 = 1 können wir in Satz 2.1 schreiben x = ax(1)+ß;(2) =aJ(1)
+
(1 - « ) x< 2 )
oder x = x ( 2 ) + a (x ( 1 ) - x l 2 ) )
für beliebige a £ 1 .
81
82
2 Lineare
Gleichungssysteme
Skizze:
Zu ¿ ( 2 > wird ein Vielfaches des Differenzenvektors _j(2)
a
1
m3
bzw.
- 3 X 2 =2
X
X
X
+
x2
RS
1
1
0
m \T
0
-2
X
->
3
1
x2
RS
1
1
4
1
-3
2
x
2
RS
1
1
1
0
1
-2
0
0
-1
Die dem letzten Tableau entsprechende ausgeschriebene Form des Gleichungssystems lautet X
+ x_ = 1 2 x_ = -2 2 0 * x-,= -1 2
1
Die letzte Gleichung beinhaltet einen Widerspruch 0 • x 2 =0 f
. Das Gleichungssystem hat keine Lösung.
Beispiel 45: 2x
1
x1
2 + X3 = _ 1 + 2X 2 + 8X 3 = 1
X
x
3x1 + x 2 + 9X 3 = 0
bzw.
1
tu1 3
X
2
X
3
RS
-1
1
-1
2
8
1
1
9
0
87
88
2 Lineare
X
1
2
Gleichungssysteme
x2
x3
RS
-1
1
-1
0
B
0
5
2 x
X
2
Yl
"
X
— \ — /
X
2
-1
X
3
1
RS -1
W
0 0
/2
1
1
0
0
0
= -1
2
Ijj 3 2X3 2 0 • x3 = 0
5 2X2
Die letzte Gleichung 0 = 0 beinhaltet keine Bedingung für die Unbekannten. Sie ist und war in der ursprünglichen Form des Systems überflüssig
(redundant).
(Man erkennt, daß in der Ausgangsform die dritte Gleichung Summe der beiden ersten ist). x^ kann beliebig gewählt werden, etwa x^ = t , da 0 • t = 0 für alle t e IR richtig ist.
5 15 3 Einsetzen in die zweite Zeile ergibt -^x^ + -j-t = i x
also
2
=
5
3t
Einsetzen in die erste Zeile ergibt 2x^ ~ I5" ~ 3t) + t =
- 1
also x^ = —g - 2t Wir formulieren das Verfahren noch einmal allgemein. Der Gaußsche Algorithmus: Es liege das LGS ^ m,n a
1 1
X
1
a
12
x
2
a . x. + a n x_ + m1 1 m2 2
a, x 1n n
a x =b mn n m
vor mit mindestens einem nichtverschwindenden Koeffizienten a.. in jeder Zeile. Keine der Zeilen war bell reits Pivotzeile. Schritt 1: Wähle aus den Koeffizienten der Zeilen, die noch nicht
2 Lineare
Gleichungssysteme
Pivotzeile waren, einen Koeffizienten a ^ 0 als rs Pivotelement (damit wird Zeile r Pivotzeile, Spalte s Pivotspalte, x g Pivotvariable). Schritt 2: Berechne für jede Zeile i , die noch nicht Pivotzeile war, die neuen Koeffizienten a!. und neuen rechten i:
Seiten b! nach l
a. a! . = a. . - — iiJ ii a J rs
a. a .J( j = 1 , . . . , n ) ; b ! = b . - — b ri l i a r rs
(insbesondere ist a^
=0 , x g wird eliminiert.)
Schritt 3: Prüfe, ob es Zeilen i gibt, deren Koeffizienten a^j alle Null sind. Ist bei einer Zeile i mit a! . = 0 für Jj = 1 , ... , n die lj
rechte Seite b.' von Null verschieden, dann hat LGS l ' m, n keine Lösung . STOP 1. Ist bei einer Zeile i mit a! . = 0 für j = 1 , . . . , n lj
die rechte Seite
J
•
'
gleich Null, dann lasse Zeile i
weg. Die zugehörige Gleichung ist überflüssig. Schritt 4: Waren alle noch vorhandenen Zeilen bereits Pivotzeilen, dann fahre mit Schritt 6 fort, andernfalls mit Schritt 5. Schritt 5: Setze für alle noch vorhandenen Zeilen, die nicht Pivotzeile waren, a.. : = a! . (j = 1 , ... ,n) , b. = b! 13 ij ' 1 1 und fahre mit Schritt 1 fort. Schritt 6: Sind insgesamt p Pivotzeilen aufgetreten, 1 £p_ x 1 = -2 - 3t .
_|
Das Gaußsche Eliminationsverfahren liefert uns alle Lösungen eines linearen Gleichungssystems oder die Erkenntnis, daß keine Lösung existiert, falls das nach den Eliminationsschritten gewonnene Gleichungssystem äquivalent ist zu dem ursprünglichen System in dem Sinne, daß beide Systeme entweder keine Lösung oder beide Systeme identische Lösungen besitzen. Die Lösungsmengen des ursprünglichen und des nach dem Eliminationsverfahren erhaltenen Systems müssen übereinstimmen . Definition 2.2: Zwei lineare Gleichungssysteme heißen äquivalent, wenn ihre Lösungsmengen übereinstimmen. Beim Gaußschen Verfahren und den diskutierten Varianten können folgende Operationen auftreten: (1) Vertauschung zweier Gleichungen. (2) Vertauschung zweier Spalten des Gleichungssystems. (3) Multiplikation einer Gleichung mit einer von Null verschiedenen reellen Zahl.
2 Lineare
94
Gleichungssysteme
(4) Addition einer mit einer beliebigen reellen Zahl multiplizierten Gleichung zu einer anderen Gleichung. (5) Weglassen einer Gleichung, in der alle Koeffizienten und die rechte Seite Null sind. Der folgende Satz sichert die Anwendbarkeit des Gaußschen Verfahrens theoretisch ab. Satz 2.2: Führt man an einem LGS
eine der Operationen (1) m, n bis (5) durch, so entsteht ein äquivalentes System. Für die Operationen
(1), (2) und (5) erscheint die
Aussage des Satzes unmittelbar klar: Jede Gleichung legt den Variablen eine Bedingung auf. Alle Bedingungen des Gleichungssystems müssen gleichzeitig erfüllt sein. Dabei kommt es nicht darauf an, in welcher Reihenfolge diese Bedingungen tiert sind
(Gleichungen) no-
(Operation (1)).
Jede linke Seite der Gleichungen besteht aus Summen des Typs a
i1 X 1
+ a
i2x2
+
••• + a i n x n
(i
=1
m)
'
Vertauscht man in allen Gleichungen zwei Summanden gleicher Unbekannter, also etwa a.. x. mit a., x, lk k j für i = 1 , ... , m , so bleiben für alle Werte der Unbekannten die Werte der Summen gleich
("Kommutativ-
gesetz der Addition reeller Zahlen", Operation (2)). Eine lineare Gleichung, in der alle Koeffizienten und die rechten Seiten gleich Null sind, ist für alle beliebigen Werte der Variablen erfüllt, so daß ihr Weglassen die Lösungsmenge nicht beeinflußt. (Operation
(5)) .
Für die Operationen
(3) und (4) führen wir den Beweis
gemeinsam und zeigen, daß die Addition einer mit einer beliebigen reellen Zahl ß multiplizierten Gleichung Nr. l zu einer mit a ^ 0 multiplizierten Gleichung
95
2 Lineare Gleichungssysteme
Nr.
k
die
hält
Lösungsmenge
man O p e r a t i o n
den
Zeilenvektoren
das
ursprüngliche
Or p e r a t i o n
, = b^
a
= bk f
k
T
x
-»•T a^
\
a
,
X
£
b
=
£
verändert.
(i = 1 , ... LGS^
System
LGS
, m)
das
+
4
T
und
) x =
x
L ö s u n gr
a
*
.
Dann
X
a
nach
k
x
=
b
ßb£, V I
LGS
, =
. Dann g i l t 3 m,n T->x + ß a £ x = ab^ + ßb^
g i l t
LGS
insbesondere
insbesondere und
auch
->• T-> -»• T-+ aa^ x = ab^ + ßbj, - ß a £ x = ßb^ + ßb^ - ßb^ = a b ^ woraus
+
T-s, a x = b _ m m
J
von
der
. . T>
-»- T + T,+ •* (aak + ß a £ ) x = aa^ ->• T - * a^ x = b
abk
. .
l \
wir
T •+ , x = b1
Sei x ^ ' L ö s u n g von LGS . Dann g i l t - T-(1) , , T->(1)m,n, , , .. a, x = b, u n d a„ x = b„ u n d d a m i t k k l iL , -»• T T . - > • T-»•+ T - * (aaj, + ßa^ ) x = aa^ x + ßa^ x = ab^ + ßb^
Sei
nach
erMit
als
m,n
( a t /
->• T + , a x = b m m
ß =0 (4).
schreiben
^ und
a1
m,n
Für
a = 1 Operation
j
LGS t^
für
System
erhaltene
T + a^ x
nicht
(3),
Division
durch
,
a i- 0
k
folgt. Da a l l e
anderen
G l e i c h u n g3 e n
übereinstimmen,
i s t
damit
O
Wir
gezeigt.
besprechen
noch
die
eine
bisweilen
Eliminationsverfahrens:
Der
Gauß-Jordan-Algorithmus: 1:
wie
beim
LGS
Gleichheit
des
Schritt
von
m,n der
und
m,n
Lösungsmengen
benutzte
Gauß-Algorithmus
LGS
Variante
m,n
2 Lineare
96
Gleichungssysteme
Schritt 2: Dividiere die Pivotgleichung durch das Pivotelement a . Die neuen Koeffizienten in der Pivotzeile bzw. rs deren neue rechte Seite lauten dann a . b a' . = ( jJ = 1 , ... , n ) , b' = — r iJ a ' ' ' r a rs rs (insbesondere ist = 1) . Berechne für i = 1 , ... ,m , i ^ r , die neuen Koeffizienten af. und die neuen rechten Seiten b? nach i: i alj f . = a lj ..-a' . a . (j J = 1 , ... , n) ; b! = b. - b ' a . rj I S l l r IS Schritt 3: wie beim Gauß-Algorithmus, Schritt 4: wie beim Gauß-Algorithmus, Schritt 5: Setze für alle noch vorhandenen Zeilen i a! ,b. :=b'. , lj. = a. ij . (j = 1 , ••• , n) l I Schritt 6: Sind insgesamt p Pivotgleichungen aufgetreten mit 1_ 1 5 0 -4 RS 1 *2)
0 3
X
3
0
X
4
RS
2
2
1
-1
3
0
4
8
-4
0
4
5
2
2
x3
0
0
1
0
3
0 X
2
1
X
X
4
RS
1
3
0
-2
2
1
3
0
0
-2
0
0
0
4
-8
0
0
0
0
0
-2 *3)
0
0
0
1
-2
0
0
0
•
Das System lautet umgeordnet in der Form des Schrittes 6:
2 Lineare Gleichungssysteme
X
1
X
3
X
4
X
2
RS
+
3X
2
= - 2
1
0
0
3
- 2
=
3
0
1
0
0
3
=
- 2
0
0
1
0
- 2
m i t
d e r
L ö s u n g
x
4
= - 2
, x
= 3
, x
2
= t
, x.j
= - 2
-
3 t
. j
99
2 Lineare
100
2.4
Gleichungssysteme
Lineare Gleichungssysteme mit mehreren rechten Seiten
Beispiel 4 7: a) Wir betrachten das Kapazitätsauslastungsproblem aus Beispiel 38 und nehmen an, die dort angegebenen verfügbaren Maschinenzeiten 36, 32, 34 seien für die 1. Woche eines Planungszeitraums vorgegeben. In der 2. Woche seien die Maschinen 30, 40, 38 Stunden verfügbar, in der 3. Woche 28, 34, 36 Stunden. Die Bearbeitungszeiten pro Produkt und Maschine bleiben ungeändert. Dann stellen sich drei Kapazitätsauslastungsprobleme der Form A x(k) =
b(k)
k = 1, 2, 3
mit der jeweils gleichen Koeffizientenmatrix
A =
1
4;
2
3
3
1,
des Gleichungssystems aus Beispiel 38 und drei Vektoren der rechten Seiten 36 :
30 (2)
32 34 /
,
40
28'
(3)
38
34 , 36
b) Auch beim allgemeinen Produktionsmodell aus Beispiel 39 interessiert man sich häufig jeweils für den Output bei verschiedenen Inputvektoren. Dies führt auf mehrere Gleichungssysteme mit identischer Koeffizientenmatrix A der Form Ax
(k)
= b(k)
(k = 1, 2, ..., r) . |
Man hat in den Anwendungen nicht selten also mehrere lineare Gleichungssysteme zu lösen, die
2 Lineare Gleichungssysteme
101
sich bei gleicher Koeffizientenmatrix A nur durch verschiedene rechte Seiten unterscheiden. Löst man diese Gleichungssysteme nacheinander mit dem Gauß (oder Gauß - Jordan -) Verfahren und wählt dabei die Pivotelemente bei jedem System gleich aus., dann erhält man offenbar auch bei jedem System jeweils die gleichen Matrizen in den entsprechenden Tableaus des Rechenverfahrens. Man kann daher mit dem Gaußschen Algorithmus oder den Gauß - Jordan - Algorithmus lineare Gleichungssysteme identischer Matrix A mit verschiedenen rechten Seiten gemeinsam lösen. Man beginnt mit einem Tableau der Form X a
1
X
11
a
2 12
* '
•
. X n
«1n
1 .RS
2.RS . . . r-te RS
v b,
b/2).
b(1)
b(2)
1
.
•
«
a
ml
a
m2
•
•
. a
mn
m
. bm' r l
m
und führt die Eliminationsschritte unter Umrechnung aller rechten Seiten wie gewohnt durch. Aus dem sich ergebenden gestaffelten System der jeweiligen Schritte 6 berechnet man nacheinander (r-mal) dann die Lösungen für jede der r rechten Seiten. Beispiel 48: In den drei linearen Gleichungssystemen A x
A =
2 0 5 i
(k)
= b
(k)
1
-1
2 2
1 -3
(k = 1, 2, 3) ->(1) b f
h
- a = (a ..,..., a , b ) ml ' mn m
(a 2 1 ,...»a 2 n ,b 2 ),
3 Matrizenrechnung,
2. Teil
seien die um die rechten Seiten erweiterten Zeilenvektoren von A. Man kann dies auch so ausdrücken: Mit ' a 11 (A, b) : =
a
b
1n
a ..... a m1 mn
1
b m /
bezeichnet man die "erweiterte" Matrix des LGS ^ m,n (A, b) ist also die m x (n+1) - Matrix, die aus A durch Hinzufügen einer (n+1)-ten•(Spalte des(m) Vektors T 1) T b der rechten Seiten entsteht. ,a sind dann die Zeilenvektoren von (A, b). * Ist einer der Zeilenvektoren a (i) 1der erweiterten Matrix Linearkombination der anderen Zeilenvektoren, (i)T dann ist die durch a repräsentierte Gleichung offenbar redundant (vgl. Beispiel 54 und Satz 2.2). »•T der KoeffizientenIst einer der Zeilenvektoren a. i
matrix A Linearkombination der anderen Zeilenvektoren und ist b. nicht Linearkombination der anderen i
rechten Seiten mit den gleichen Faktoren a., dann beinhalten die Gleichungen einen Widerspruch. Es gibt keine Lösung des LGS m Beispiel 57:
n-
|
Keiner der n Einheitsvektoren des IRn ist Linearkombination der übrigen n-1 Einheitsvektoren. Wäre dies nämlich der Fall, dann müßte es n reelle V
"n
mit der Eigenschaft, daß a
1
e
1
+
a
2
e
2
+
+ a S = 6 n n
gilt, wobei 0 der Nullvektor im IR
(1!
ist.
127
3 Matrizenrechnung,
128
Aus
2. TeiI
e. = £ a. e. •
1
• 3
folgt nämlich (1) nach
3
Addition von (-e.) auf beiden Seiten (a. l l (1) ist ein LGS n
n
-1)
•
in den Unbekannten
mit allen rechten Seiten gleich Null. Es lautet ausgeschrieben
a
1 0
l
+ a2
I 0
0\ 1
+ .
. + an
0/
1° 0
;
0 =
•
0
oder a^ = 0 , a 2 = 0, . . . , a n 0 . k Vektoren des IR , von denen keiner Linearkombination der übrigen k-1 Vektoren ist, nennt man linear unabhängig. Dies läßt sich analog zu (1) auch ausdrücken durch
|
Definition 3.3: Die Vektoren a ( 1 ) , a ( z ) , .
a ( k ) des IRn heißen
linear unabhängig, wenn gilt: Aus
a(1)+ 1
H l
folgt
a,S(2)+ 2
a^ = a 2 =
... a ^ k
( k )
=
6
= a k = 0.
Die Vektoren heißen linear abhängig, wenn sie nicht linear unabhängig sind.
e IR sind linear abhängig.
3 Matrizenrechnung,
2. TeiI
Zum Beweis müssen wir zeigen, daß das LGS 3,3
4
1
(-1 a
2
1
-2
+ o^
2
3j
1
a
1
2
a
1
3
a
+ 4
a
2
2
a
2
+ 2
a
-
1
2
I
+ a^
= 0
+ 2
= 0
3
+ 8
2
0 ' oder
0
=
0
8
+ 2 a3 a
1
' 2 '
erfüllt wird von a^, a^, a d i e
= 0
nicht alle Null
sind.
Anwendung des Gaußschen Algorithmus liefert - t , a^ = -2 t
t e IR , a b) Die Vektoren
2 1
1 f
-1
£ IR
(Übung). sind linear
unabhängig. Die Anwendung des Gaußschen Algorithmus liefert nämlich, daß das LGS»
^ ,2
2 1
+ a^ z
1
--
2 a^ +
-1
a
1 "
a a
2 2
—
0 0
nur die Lösung a^ = c^ = 0 besitzt (Übung). Dies erkennt man auch unmittelbar: Die zweite Gleichung liefert a^ = a^ und damit die erste 3a^ = 3Ö2
=
0.
c) Ist unter den Vektoren a• n :
. ,a ( k ) der Null-
vektor O, dann sind die Vektoren linear abhängig (Begründung?). Für k = 1 gilt
a^ a ( 1 )
i
0, a^ =(= 0, o ffenbar nur für den Nullvektor a ( 1 )= 0.
J
Zum Nachweis der linearen Unabhängigkeit von k Vektoren a ^ LGS
k
,ß m. des IRn muß man untersuchen, ob das
m:i t
- den Spalten a
(i)
(i = 1,...,k), der
rechten Seite b
0 und den Variablen ct. von Null l verschiedene Lösungen besitzt. Lineare Gleichungssysteme mit allen rechten Seiten Null nennt man homogen.
129
130
3 Matrizenrechnung,
2.
Teil
Definition 3.4: Ein lineares Gleichungssystem heißt homogen, falls alle rechten Seiten gleich Null sind. Andernfalls heißt es inhomogen. Ein homogenes lineares Gleichungssystem L G S m , n besitzt stets die sogenannte triviale Lösung x . = x „ = . . . = x = 0 (A x = 0 ist offenbar für 1 2 n x = O erfüllt). Darüber hinaus können weitere Lösungen existieren. Besitzt ein homogenes lineares Gleichungssystem nur die triviale Lösung, dann sind die Spaltenvektoren der Koeffizientenmatrix linear unabhängig. Zur Vertiefung des Begriffes der linearen Unabhängigkeit ziehen wir drei einfache Folgerungen aus Definition 3.3. Folgerung 1: Sind k Vektoren a ' , . . . , a ^ '
linear abhängig,
dann ist mindestens einer dieser Vektoren Linearkombination der übrigen
(k-1) Vektoren.
Sind die Vektoren linear abhängig, dann gilt nämlich k , Z a. a i=1 1
=0
mit mindestens einem ct. =(= 0. 1
Sei u.3 =1= 0. Dann folgt
k a. a-1 = - I a. a 3 i i=1 l+ j
nach Division duch a. ^ 0 daraus k , v i
-+3 a
=
r i+j
3
ex1 . \ 1 a
•
o
und
3 Matrizenrechnung,
2. Teil
Folgerung 2: ,, -+(1) (k) (k+1) •*• (m) , . Sind a , ...,a , a , ...,a m linear unabhängige Vektoren, dann sind auch a ' , . . . , a linear unabhängig. Entfernt man aus einer Menge linear unabhängiger Vektoren einige Vektoren, so müssen auch die verbleibenden Vektoren linear unabhängig sein. Wären nämlich a ^ a l i n e a r
abhängig, dann
folgte nach Definition 3.3 ->- (1) a. a K ' + ... + a, 1 k
(k) 1
=0
mit mindestens einem ou =(= 0 (i G {1 , 2 , . . . ,k}) . Mit a, ,- = a, , _ = . . . =a = 0 wäre dann aber auch k+1 k+2 m a. 1
+...+«
m
S(m) = 5
erfüllt, ohne daß alle Faktoren a. gleich Null
:
sind, im Widerspruch zur linearen Unabhängigkeit -»-(1) (m) „ von a ',...,av . Q Folgerung 3: Sind a ^ , a' , ..., linear abhängige Vekto, . , , -+(1) ->(k) (k + 1 ) ->(m) ren, dann sind auch a ,...,a a ,...,a linear abhängig. Fügt man einer Menge linear abhängiger Vektoren weitere Vektoren hinzu, so sind auch die Vektoren der vergrößerten Menge linear abhängig. Der Beweis ist analog zu dem der Folgerung 2. 3.1.2 Lineare Teilräume, Basis, Dimension Der Begriff der Dimension eines (Vektor-) Raumes wird bis zur Dimension 3 von der Umgangssprache richtig wiedergegeben. Eine gerade Linie (eine Gerade) nennt man eindimensional, eine Ebene hat die Dimension 2 und der uns umgebende Raum heißt dreidimensional.
131
3 Matrizenrechnung,
132
2. Teil
Eindimensionale Objekte besitzen Ausdehnung nur in einer Richtung, die man etwa Länge nennt (mit gewissen Idealisierungen ist ein gespannter Faden eindimensional). Zweidimensionale Objekte besitzen Ausdehnung in zwei Richtungen (etwa Länge und Breite), dreidimensionale in drei Richtungen (etwa Länge, Breite, Höhe). Ziel dieses Abschnitts ist es, den Begriff der Dimension mathematisch exakt einzuführen und Teilmengen des Vektorraumes IRn zu untersuchen, die für sich schon Vektorräume sind. Wir beginnen mit dem Begriff eines linearen Teilraums des IRn . Beispiel 59: a) Die drei Einheitsvektoren e^ =
e
3 =
0 0 1
aufeinander
des IR
stehen paarweise senkrecht
fo für i + j t (e. • e • = 1 . _ • _ • ) , wie man
leicht nachprüft. Sie definieren von einem festen Punkt (Ursprung) ausgehend ein rechtwinkliges, kartesisches Koordinatensystem, und jeder Vektor ai \
des IR naten
ist als Punkt mit den Koordi-
a.| , a2, a^ interpretierbar, wobei
Koordi-
naten im Sinne der Darstellung a
= a 1 e1 + a 2 e 2 + a 3 e 3 zu verstehen sind (vgl. Beispiel 55). 3 Jeder Vektor des IR ist als Linearkombination
3 Matrizenrechnung,
2. Teil
der drei Einheitsvektoren darstellbar, die in die3 sem Sinne den IR
erzeugen oder aufspannen.
Skizze:
•
X
2
Nun betrachten wir folgende drei Mengen: Die Menge M 1 aller Vektoren des IR3 , deren 1. Komponente gleich Null ist, die Menge M i0 aller Vek3 toren des IR , deren 2. Komponente gleich Null ist und die Menge M^ aller Vektoren des IR"
deren
3. Komponente gleich Null ist. In Mengenschreibweise: m ( = (a e
r
0 ' a,
£ IR , a, G IR }
3/ M 2 = { a e IR"
M,
{ a e ir"
1
e i r , a, e i r }
0 a
3l
a
l\
^
e i r , a2 e m
}.
133
1 34
3 Matrizenrechnung,
2. Teil
Geometrisch interpretiert, enthält M^ alle Vek-y
toren, die in der von e^ u n d e^ aufgespannten Ebene liegen, die e2 - e2~Ebene genannt wird oder x^-x^-Ebene- Die Vektoren aus liegen in der der e^-e^-
(x^-x^)-Ebene.
Jede Linearkombination von Vektoren aus M^ ist wieder ein Vektor aus M^. Das Entsprechende gilt für M 2 , M^. Läßt man bei M^, M 2 , M 3 jeweils die Komponente weg, von der man ohnehin weiß, daß sie gleich Null ist, dann erhält man Mengen von Vektoren mit zwei Komponenten, die man jeweils mit dem 2 Vektorraum IR identifizieren kann. In geometrischen 2
Interpretationen wird der Raum IR als e^ -
ohnehin meist
~ Ebene, also als M^ aufgefaßt. Die
M^ M^ unterscheiden sich nur durch drei Ebenen M^, M^, ihre Lage im Raum. b) Betrachten wir jetzt irgendeine Ebene im IR~* , die 1 0 den Ursprung 0 = enthält. Nimmt man zwei Vek0 i0 toren a und b in dieser Ebene, die nicht auf einer Geraden durch den Ursprung liegen (mit anderen Worten: es gibt kein o E E
mit a = a ß ; a und 6
sind nicht linear abhängig), dann kann man jeden Vektor in dieser Ebene durch eine Linearkombination von a und S darstellen (Anschauung! Geometrische Interpretation der Addition zweier Vektoren und der Multiplikation mit einer reellen Zahl, vgl. die Diskussion im Anschluß an Satz 2.1). Andererseits liefert jede Linearkombination von a und b auch einen Punkt dieser Ebene. Man sagt auch "a und ß spannen die Ebene auf".
|
3 Matrizenrechnung,
2. Teil
Definition 3.5: Eine Teilmenge V des Vektorraumes IRn heißt linearer Teilraum des IRn , falls gilt (i)
Aus a, & e V folgt a + S e V.
(ii)
Aus a e V, a 6 ffi folgt a a e V.
Eine Linearkombination von Vektoren eines linearen Teilraums V ist demnach wieder ein Vektor aus V. Lineare Teilräume sind also Teilmengen, die man durch Bilden von
Linearkombinationen ihrer Ele-
mente nicht verläßt . Beispiel 60; a) Die Ebenen aus Beispiel 59 sind lineare Teil3 räume des IR . b) IRn ist linearer Teilraum des IRn . c) {0} ist linearer Teilraum des IR . d) {a a | a £ IR] ist für festen Vektor a e ffin linearer Teilraum des JRn . e) { a a + ß b
| a, (3 6 IR } ist für feste Vektoren
a, b 6 IRn linearer Teilraum des IRn . f) {a}
mit a =j= 0 ist kein Teilraum des IRn .
Die Elemente der linearen Teilräume aus Beispiel 60 a) bis e) sind alle Linearkombinationen fester, un< gegebener ^ e 3» e i u n d e^, ->- Vektoren (von un£ ä e 3 bzw. a, b (Beispiel 59 b) in a) ; der n
Einheitsvektoren des IRn in b); des Nullvektors 0 in c); des gegebenen Vektors a in d); der Vektoren a und b in e)).
135
136
3 Matrizenrechnung,
2. Teil
Definition 3.6: Seien a ^ ' , a ^ ' , . .., a ^ gegebene Vektoren des IRn . Die Menge aller Linearkombinationen von a ( 1 ) , a ( 2 ) , ..., a ( k ) heißt lineare Hülle von + U) (k) , , ->(1) -s- (k) a ', ..., a ' oder der von a , ..., a v ' aufgespannte (erzeugte) lineare Teilraum. Sie wird mit lin la ..., a )oder - (' 3)
(1)
gilt. Eingesetzt ergibt sich das LGS2 3 a1 = 2 a
+ a 2 + 2 a3
a
+ 2 a2
2 = ai
(1)
+ 2 a3
Dies ist (nach Elimination von a^ in der 2. Gleichung im Sinne des Gaußschen Algorithmus) äquivalent zu
a
2
"
l
1
a
1
2 a^
+ Oj + 2 a^
- a1 + a 2
mit der Lösung
a^ = t G ]R , a^ = a^-a 2 + t, a
a. 2 " ~T
3t 2
V = IR^ wird also von a ' ^ , a ^ ' , a ^ spannt .
aufge-
137
3 Matrizenrechnung,
138
2. Teil
b) Setzen wir in a)
o^ = t = 0, so folgt, daß
auch a ^ ' und a'"^ alleine den Raum V = IR2 aufspannen. Analog kann man zeigen, daß auch +(2) und, a -+(2), a ->(3) jeweils . , genügen, um a ), a 2 den gesamten IR aufzuspannen (ct^ = 0 bzw. a^ = 0 setzen in (1)). c) Nimmt man endlich viele beliebige Vektoren des IR2
zu a ^ ' , a' 2 ^, a ^ ' hinzu, so entsteht offen2 bar immer ein System von Vektoren, das V = IR erzeugt. d) Die Einheitsvektoren e^,
..., e n spannen den
IRn auf (Beispiel 55). Die Vektoren ß1 e 1 , ß 2 ®2 ' ..., ß e mit beliebigen ß. e IR ,ß. T+ 0 n n ^ i ' i (i = 1,...,n) spannen ebenfalls den IR auf (Warum?).
—
Zu einem gegebenen linearen Teilraum V gibt es also unendlich viele Systeme von Vektoren, die V aufspannen
(Beispiel 61 c,d).
Weiter kann man bisweilen ein gegebenes System von V aufspannenden Vektoren so verkleinern, daß die verbleibenden Vektoren immer noch V erzeugen (Beispiel 61 b)). Unter welchen Bedingungen eine solche Verkleinerung des erzeugenden Systems möglich ist, klärt Satz 3.2.: Es seien a'^', ..., a ^ Vektoren des IRn und ,->-(1), . . . , a ') der von ^(1) n • V = I m (a av , . .-+(k) . , a aufgespannte lineare Teilraum.
3 Matrizenrechnung,
(i)
Sind a ' ^ , etwa a ^ ^ V =
a"^ als
2. Teil
linear abhängig und sei
Linearkombination von a ^ ' ,
...,
darstellbar. Dann gilt lin
(ii) Sind a'^', ..., a ^ '
linear unabhängig. Dann -»• (1) ist der durch k-1 der k Vektoren a , ..., a (k) erzeugte lineare Teilraum stets echt in V enthalten.
V läßt sich also genau dann auch durch ein verkleinertes Erzeugendensystem darstellen, wenn die Vektoren a ^ ' ,
..., a ^ '
linear abhängig sind.
Der Beweis ist sehr einfach: Sind a'^', . .., a ^
linear abhängig, dann ist min-
destens ein Vektor aus
a , ..., a
darstellbar als
Linearkombination der übrigen k-1 Vektoren. Ohne Beschränkung der Allgemeinheit dürfen wir - wie in der Formulierung von Satz 3.2 - annehmen, dies sei ivi a
. Es gilt also , a
mit a. £ 1R
k-1 £ ct. a 1 i=1 1 (i = 1 , . . . , n) .
=
(1)
Ersetzt man in der Darstellung eines beliebigen Vektors a aus V als Linearkombination der a'^', (k) •* (k) ..., a dann a stets durch die Linearkombination (1), so erhält man offenbar eine Dar->-»- (1) Stellung von a als Linearkombination der a , ..., a ( k _ 1 ) . Es gilt demnach V = lin ( a ( 1 ) , Aussage
(i)).
...,
a ^
- 1
^
139
140
3 Matrizenrechnung,
2. Teil
Trivialerweise gehören die Elemente a des Erzeugendensystems zu V. Sind a also linear unabhängig, dann ist keiner dieser erzeugenden Vektoren Linearkombination der übrigen. Entfernt man einen der Vektoren aus dem Erzeugendensystem, so ist zumindest dieser also nicht mehr in der linearen Hülle der verbleibenden Vektoren enthalten. Damit ist die Aussage (ii) gezeigt. Q Ein Erzeugendensystem linear unabhängiger Vektoren kann also nicht verkleinert werden, wenn sich der aufgespannte lineare Teilraum nicht ändern soll. Dies motiviert . Definition 3.7: Eine Menge linear unabhängiger Vektoren a ^ ^ , ..., • a* (k) heißt Basis eines linearen Teilraums V, wenn gilt V. Jedes System linear unabhängiger Vektoren, das V erzeugt, ist eine Basis von V. Zu einem gegebenen linearen Teilraum gibt es (unendlich) viele Basen. Beispiel 62: In Beispiel 59 b) haben wir mit Hilfe der Anschauung aus der geometrischen Interpretation der Addition von Vektoren und der Multiplikation mit einer reellen Zahl geschlossen, daß eine Ebene im m 3 durch zwei linear unabhängige Vektoren aufgespannt wird. Wir wollen nun formal zeigen, daß je zwei 2 linear unabhängige Vektoren den Raum IR aufspannen. Seien a
^ a
2
gegebene
3 Matrizenrechnung,
2. Teil
2 linear unabhängige Vektoren des 3R . Dann gibt es keine Zahl a + 0 mit a ^
= a a'2^ oder (für die
Komponenten ausgeschrieben) = a a{2),
a = a a< 2 )
.
(1)
a ^ ' und a^ 2 ' bilden eine Basis des IR2 , wenn es zu j jedem
-»• — iI a 1
Vektor
zwei Zahlen a^, a 2 gibt
mit a = a^ a ^ ' + a^ a' 2 ^. Dies ist gleichbedeutend damit, daß das lineare Gleichungssystem a1 = a1 a1
' + a 2 a^ ^ (1)
a
2
a
=
a
1
(2) +
2
a
2
a
( 2 )
2
für alle reellen Zahlen a^, a 2 eine Lösung a^, a 2 besitzt. Mindestens einer der Koeffizienten muß ungleich Null sein, da sonst a'^', a^2^
linear
abhängig wären. Ohne Beschränkung der Allgemeinheit sei a - ^ ' Das Gauß-Verfahren mit Pivotelement a^ (1) liefert das äquivalente System a1 = a 1 a
2
-
a
1
a
2n|
i '1'
+
a
2 a1 ^ a2(a2'2)
=
n r
2
a
a
2
-
^ f ^ -
2
i
a
>•
i
'
Die linken Seiten können wegen a^ , a 2 £ IR beliebig., jeden Wert annehmen. Das System hat offenbar für alle a^, a 2 £ IR eine Lösung, falls der Koeffizient
a2
(7)
-
a (2)a (1) 1 ? ——prp a
&2
( 2 )
a
=f 0 ist. Nun gilt
1
1 a
(2)
a (1) 2 ppj
1
=
0 genau dann, wenn a 2
(2)
a
2
(1)
®
141
142
3 Matrizenrechnung,
2. Teil
ist (die zweite Komponente beider Vektoren ist gleich Null, (1) ist erfüllt mit (1)
a a
1
« oder a
1
(2)
oder -»(2) a = 0, lineare Abhängigkeit),
(2)
2
j-jy
=
a (2) 1 -—pjy a
2
gilt ((1) mit
1
(2)
1
*2
a
a
2
ny
, ->-( 2 oder a = 0, lineare Abhängigkeit).
Das LGS ? . (2) besitzt für linear unabhängige z 'i(1) ->(2) Vektoren a , a und beliebige Zahlen a^ , a 2 daher stets eine Lösung. Wir wollen noch festhalten, daß die Darstellung eines jeden Vektors aus einem linearen Teilraum V als Linearkombination einer Menge von Basisvektoren eindeutig ist. Satz 3.3: Seien
V ein linearer Teilraum und { a ^ ' , ..., a ' ^ }
eine Basis von V. Dann gilt: Die Darstellung eines jeden Vektors a aus V als Linearkombination der Basisvektoren ist eindeutig. Auch dies ist leicht einzusehen: Nehmen wir an, es gebe zwei Darstellungen a = E i=1
a. a ( i ) = 1
Z ß. a ( i ) . 1
i=1
Dann folgt durch Differenzbildung k
0 = l (ct. - 3.) a i=1
1
I •)
.
3 Matrizenrechnung,
Wegen der linearen Unabhängigkeit der a gelten ou -
= O, also a^ =
Die bekannteste
muß
für i = 1,...,k.
Basis des IR
Einheitsvektoren e^
2. Teil
Q
wird von den n
i = 1,...,n, gebildet. Wie
wir in den Beispielen 55 und 59 schon gesehen haben, entspricht die übliche Darstellung von Vektoren des IRn als geordnete n-Tupel reeller Zahlen der Darstellung als Linearkombination der Einheitsvektoren e. i
1
+ a2 e2 +
+ a e n n
Die Basis der Einheitsvektoren heißt daher auch kanonische Basis des IR n . des IRn und
Sind Basisvektoren a ^ '
et
ein beliebiger Vektor a £ IR
als n-Tupel gegeben
(also in der kanonischen Basisl, so findet man die Darstellung von a als Linearkombination der a ( 1 ) i(n) durch Lösen des linearen Gleichungssystems: + a a (n) n
(2) a*-( 1) + a 2 a
, a . Nach Satz 3.3. muß ' n die Lösung dieses Gleichungssystems für alle n in den Variablen a^,
a 6 IR
eindeutig sein.
Beispiel 63: Die Vektoren a ( 1 )
•(2) _
•(3)
bilden eine Basis des IR . Um dies nachzuweisen,
143
3 Matrizenrechnung,
144
2. Teil
müssen wir prüfen
a) die lineare Unabhängigkeit,
b) daß jeder Vektor des IR
(eindeutig) darstellbar
ist als Linearkombination dieser Vektoren. a) Das homogene LGS^ ^ a a
+
.
+ OL.
+a +a 1 2 3 a +0l 2 3
=
0 0 0
besitzt offenbar nur die triviale Lösung a^ = a^ - oi^ = 0. -»(1) ->(2) ->(3) . , , , , . .... . a , a , a sind daher linear unabhängig. b) Das inhomogene LGS^ ^ a^ + a^ +
a
3 =
+
a
3
a
3 =
a
2
=
a
1
a
2
a
3
besitzt für alle rechten Seiten a
a2» a^ die
eindeutige Lösung: a^ = a^, o^ =
~ a 3'
a
1
=
a
1
"
a
2
Für die Anzahl von Basisvektoren eines linearen Teilraums ailt Satz 3.4: Alle Basen eines linearen Teilraums V haben die gleiche Anzahl von Basisvektoren. Der Beweis ist formal ein wenig komplizierter als die Beweise der bisherigen Sätze. Wir wollen uns Satz 3.4 daher zunächst nur am Beispiel des Raumes 3 V = IR plausibel machen: (vgl. aber Aufgabe 23).
3 Matrizenrechnung, 2. Teil
Mit den Einheitsvektoren e^ = e
e
2
ist eine Basis von drei Basisvektoren
3 =
bereits bekannt (eine weitere ist in Beispiel 63 angegeben) . Eine Basis von 4 Vektoren kann es nicht geben. Vier Vektoren des IR^ sind nämlich stets linear abhängig, weil ein homogenes LGS^ ^ immer nichttriviale Lösungen besitzt. Wendet man auf a
11 a1
+ a
1 2 a2
a
21 a1
+ a
22 a 2
a
31 a1
+ a
32
a
2
+
a
+ a
+
13 a 3
23 a 3
a
33 a 3
+ a
+ a
14 a 4 =
24 a 4
+ a
34 a 4
=
=
0
0
0
den Gaußschen Algorithmus an, so können höchstens drei Pivotelemente auftreten. (Die Anzahl der Pivotelemente ist höchstens gleich dem Minimum von Zeilenzahl und Spaltenzahl der Koeffizientenmatrix.) Die Endform des Gleichungssystems in Schritt 6 des Verfahrens muß daher mindestens eine frei wählbare Variable enthalten. Allgemeiner folgt ebenso, daß ein homogenes LGSm ^ mit m < n stets nichttriviale Lösungen besitzt, oder, wenn man die Spalten als Vektoren des IRm interpretiert, daß mehr als m Vektoren des IRm stets linear abhängig sind. Durch die Linearkombination zweier linear unabhängim ) ( 2) 3 ger Vektoren a , a des 1R werden genau die Vektoren der von diesen aufgespannten Ebene erfaßt (vgl. Beispiel 59 b). Ein Vektor senkrecht zu z u m Beispiel ist offenbar nicht als Linearkombination von a ^ ' , a ^ ' darstellbar.
145
146
3 Matrizenrechnung,
2. Teil
3 Es gibt daher keine Basis des IR von zwei Vektoren. Man kann sich dies auch wieder an linearen Gleichungssystemen klarmachen: Ein LGS-. A kann nicht J, „ für jeden Vektor der rechten Seite eine Lösung besitzen (vgl. auch die Diskussion im Anschluß an Beispiel 42).
O
Definition 3.8: Die (nach Satz 3.4 für alle Basen gleiche) Anzahl von Vektoren einer Basis eines linearen Teilraums V heißt Dimension von V, abgekürzt dim V. Folgerungen: 1) Man kann die Dimension dim V eines linearen Teilraums V auch so charakterisieren
(Begründung
als Übung, Aufgabe 23/ 24;; a) dim V ist die Maximalzahl linear unabhängiger Vektoren in V ,
oder
b) dim V ist die Minimalzahl von Vektoren, die man benötigt, um V zu erzeugen (vgl. Definition 3.6). 2) Ist V ein linearer Teilraum der Dimension k, dann ist jedes System von k linear unabhängigen Vektoren aus V eine Basis von V (Beweis als Übung, Aufgabe 25).
3.1.3. Abstrakte Vektorräume
(Ergänzung)
Wir haben in den vorangegangenen Abschnitten Aufbau und Struktur des IRn und seiner linearen Teilräume nicht nur so ausführlich diskutiert, um Vektorrechnung zu verstehen. In der Angewandten Mathematik gibt es viele weitere Objekte, die sich bezüglich der Rechenregeln verhalten wie die Vektoren
3 Matrizenrechnung,
d e s 3R n . D i e
folgende Definition enthält
ten, die u n s für bekannt
lineare Teilräume
Eigenschafn
bereits
sind.
Definition
3.8:
Ein Vektorraum
(oder l i n e a r e r
eine Menge von Elementen tionen: Addition Eigenschaften
Raum)
V ü b e r IR
z u s a m m e n m i t zwei
( A b k ü r z u n g +) u n d
mit reellen Zahlen
(1)
d e s IR
(Abkürzung
ist
Opera-
Multiplikation
•), d i e
folgende
besitzen:
Z u je z w e i E l e m e n t e n u , v G V g i b t e s e i n deutig b e s t i m m t e s E l e m e n t w = u + v G V, die Summe von u und v
(2)
2. Teil
eindas
heißt.
Zu j e d e m u G V u n d j e d e m a G IR
gibt es
ein
eindeutig b e s t i m m t e s E l e m e n t v = a u G V. (3) u + v = v + u (4)
u +
(v+w)
=
für alle u, v G V. (u+v) +
w
für a l l e u , v , w G V.
(5) E s g i b t g e n a u e i n E l e m e n t 0 e V m i t u + q = u für a l l e u G V (6)
(9 h e i ß t
Zu j e d e m u g i b t e s g e n a u v wird mit
(- u)
Nullelement). ein
v G V m i t u + v = 0 .
bezeichnet.
(7)
a
(u + v )
= a u+ av
f ü r a l l e a G IR , u, v
(8)
(a + ß) u
= a u + ßu
f ü r a l l e a , ß G IR,
(9)
(a ß) u = a
(10)
1 u = u
Die Begriffe
(ß u)
für a l l e ct,ß G IR,
u G V.
u G V.
für alle u G V. lineare Unabhängigkeit,
linearer
raum, Basis Dimension können
für abstrakte
räume wie in den Abschnitten
3.1.1,
werden.
G V.
3.1.2
Teil-
Vektordefiniert
147
148
3 Matrizenrechnung,
2. Teil
Beispiel 64: a) Das bekannteste Beispiel für einen Vektorraum ist die Menge der reellen Zahlen, V = IR . b) Der 3Rn und seine linearen Teilräume sind Vektorräume . c) Die Menge M
der m x n - Matrizen mit den in m, n Kapitel 1 erklärten Operationen Addition und Multiplikation mit reellen Zahlen bilden einen
Vektorraum. a) Seien f: IR ^ IR, g: IR
IR reelle Funktionen.
Sei, wie üblich definiert (f +g) : IR •* IR mit (f + g) (x) = f (x) + g (x) , (a f) :
IR ^ IR mit (a f) (x) = a f (x) .
Dann bilden die reellen Funktionen einen Vektorraum (Nullfunktion 9: IR ^ IR mit 0(x) = 0 für alle x £ IR) . e) Die stetigen Funktionen f: IR ->• IR bilden einen Vektorraum (Linearen Teilraum des Vektorraums der Funktionen IR ^ IR) . f) Die differenzierbaren Funktionen bilden einen Vektorraum (weiteren linearen Teilraum des Vektorraums der Funktionen IR
IR) .
Aufgaben zu Abschnitt 3.1 22) a) Ist der Vektor a =
darstellbar als
Linearkombination der Vektoren ' (2) _
: (1)
2 -4
;(3)
- 1
b) Bilden a ( 1 )
(2)
-»• (3) 3 a eine Basis des IR ?
c) Für welchen Wert von a^ ist der Vektor -»•T a = (1,— 2,a^) eine Linearkombination der Vek->-T toren b
(3,0,-2) und c T = (2,-1,-5)?
|
3 Matrizenrechnung,
2. Teil
* 23) Begründe die folgenden Aussagen für einen linearen Teilraum V des IRn : a) dim V ist die Maximalzahl linear unabhängiger Vektoren in V. b) dim V ist die Minimalzahl von Vektoren, die man benötigt, um V zu erzeugen. Benutze zum Beweis von b) die Aussage aus a). •»•24) Wie lauten die Aussagen a) und b) ohne Verwendung des Begriffs dim V? Beginne mit "Gibt es k linear unabhängige Vektoren aus V, die V erzeugen, dann ...." Ist mit diesen Aussagen auch Satz 3.4 bewiesen? *25) Beweise unter Verwendung von 23 a): Ist V linearer Teilraum mit dim V = k, dann bildet jedes System von k linear unabhängigen Vektoren aus V eine Basis von V. 26) Gegeben seien die Vektoren ;(2)
- 2
(3) _
4
=
-6
:2)
a) Man prüfe a d :
(3)
- 1
-7 0
auf lineare Unab-
hängigkeit. b) Man bestimme zwei linear unabhängige Vektoren r->-(1) (2) ->(3) , aus {a , a , a ' }• '(2)
c) Man gebe eine Basis für lin (a ( 1 )
a
(
3
> )
an. (3) )? , a 1 0 e) Läßt sich der Einheitsvektor e als 1 0 (3) darstellen? Linearkombination von a
d) Welche Dimension hat lin (a ( 1 )
f) Bilden a ( 1 )
•(3)
•(2)
a
e^ eine Basis des IR ?
149
150
3 Matrizenrechnung,
27) V: = lin (a'( 1 )
2. Teil
;(4) )sei die
id
a.
lineare Hülle der Vektoren 1 ; < n
=
' ( 2)_
-2
4 2
-3 ' -4
1\ 0 6 0
(3)
-22
4
2
(4).
-2
10
2 •(4)
•(3)
a) Sind a ( 1 )
linear unab-
hängig? b) Wie lautet die Maximalzahl linear unabhän(2) -(3) (4) giger Vektoren von {a• ( 1 )
¡ }?
c) Welche Dimension hat V? d) Man gebe eine Basis von V an. 28)
n
sei die Menge aller n x n - Matrizen.
a) Man zeige, daß M
ein Vektorraum ist. S b) Man zeige, daß die Menge M n n der symmetrin, n
schen n x n - Matrizen ein linearer Teilraum von M ist. n, n c) Man zeige, daß die Matrizen A
1 =
1
0
0
o
'
A
2 -
0
1
1
O
/ Aß s
0
01
o
1
linear unabhängig sind. d) Man zeige
lin (A1, A 2 , A^) =
c
e) Bilden A^, A 2 , A^ eine Basis von
2 M
2
2
?
3 Matrizenrechnung,
2. Teil
29) Sei n eine fest vorgegebene natürliche Zahl und seien c Q , c^ , . .., c^ beliebige reelle Zahlen. Dann sind durch c
n
x
n , +c
„x n-1
n-1 , , , +...+c-x+c 1 o
„ m , x e IR
reellwertige Funktionen von x definiert, sogenannte Polynome vom Grad höchstens n (Grad = höchste auftretende Potenz von x). Verschiedene Polynome höchstens n-ten Grades unterscheiden sich nur in den Konstanten c , ..., c n - Sei P n die Menge aller Polynome höchstens n-ten Grades. a) Man zeige, daß P n einen linearen Teilraum des Vektorraums der reellwertigen Funktionen bildet. b) Man zeige, daß die n + 1 Elemente von P n (speziellen Polynome) 2 x
P (x) = 1, p 1 (x) = x, P 2 ( > =
x
/
n
P n (x) = x , n £ IR linear unabhängig sind. Man benutze dazu, daß ein Polynom n-ten Grades höchstens n reelle Nullstellen hat. c) Läßt sich jedes Polynom höchsten n-ten Grades als Linearkombination von p Q , p^, ..., p n darstellen? Welche Dimension hat P n? d) Bilden p , p-, ..., p eine Basis von P ? o 1 ^n n
151
152
3 Matrizenrechnung, 2. Teil
Lösungen der Aufgaben zu Abschnitt 3.1
22) a) Es ist das L G S 3 2 =
a
i
-5 = 3 =
+
2a^
-
3
+
4«2
-
a2
+
a
3
5a3 ^a3
in den Variablen a^, c^ r a^ zu lösen. GaußVerfahren: a
1
a2
a
3
RS
m -3
2
1
2
-4
-5
-5
2
-1
7
3
1
2
1
2
0
-2
1
0
-5
5
-1
1
2
1
2
0
2
-2
1
0
0
0
3 2
0
Das L GS, , besitzt keine Lösung, a ist nicht f 1.. 4.+(1) (2) ->(3) , n T • als Linearkombination von a , a , a aarstellbar . b) Eine Basis des IR^ ist Erzeugendensystem des IR , d.h. jeder Vektor des IR
muß als Linear-
kombination der Basisvektoren darstellbar -•( 1) ->(2) k (3) sein. Nach Teil a) bilden a ' also keine Basis des IR^ . c) Es ist das L GS, ,
3 Matrizenrechnung,
3 a1
+ 2 a2 -
-2 a^
a
2. Teil
=1 =
2
- 5
-2
= a^
zu untersuchen. Aus den ersten beiden Gleichungen folgt a-2 = 2, a^ = -1 . Dies in
die letzte
Gleichung eingesetzt liefert a^ = - 8. 23) a) Sei dim V = k. Nach Definition der Dimension gibt es k linear unabhängige Vektoren in V. (1) ¿'1', . .., b ' ^ mögen eine Basis von V s , e bilden. Seien weiter a
, a
, ..., a
, m>k, m
beliebige Vektoren aus V. Wir zeigen, daß sie nicht linear unabhängig sein können. Dazu verwenden wir, daß jeder Vektor a'"*"' als Linearkombination der Basisvektoren b'^' darstellbar ist: =e{1>
s(1>
+ ß
s(2)
+
+ß
a ( 2 ) = B ( 2 ) g(1) + j J (2) g(2)
-(m) = ß (m) g(1) + ß 2 ( m ) g ( 2 )
+
m
> -
0
„,.„"> •„2.»> a^r Es hat
m
Unbekannte una k Gleichungen. Wir
hatten uns im Anschluß an Satz 3.4 schon klar gemacht, daß ein homogenes lineares Gleichungssystem mit mehr Unbekannten als Gleichungen stets nichttriviale Lösungen besitzt. Damit ist (2) erfüllbar, ohne daß alle
gleich Null
sind, und die Vektoren a ' , . . . , a s i n d abhängig. Da a'^', ...,
linear
(mit m > k) belie-
bige Vektoren aus V waren, ist damit gezeigt, daß mehr als k Vektoren in einem k-dimensionalen linearen Teilraum stets linear abhängig sind, dim V also die Maximalzahl linear unabhängiger 3 Vektoren ist. Für V = IR (und allgemeiner
3 Matrizenrechnung,
2. Teil
V = IR™ ) hatten wir dies schon im Anschluß an Satz 3.4 gezeigt. b) Sei wieder aim V = k. Wir zeigen, daß r Vektoren r < k, V nicht aufspannen können. Da man ein Erzeugendensystem aus linear abhängigen Vektoren nach Satz 3.2 stets verkleinern kann, dürfen wir uns auf die Betrachtung von r linear unabhängiger Vektoren beschränken. Spannten r linear unabhängige Vektoren den Raum V auf, dann bildeten sie eine Basis von V und es folgte dim V = r. Nach der gerade bewiesenen Aussage aus Teil a) könnte es dann aber nicht k > r linear unabhängige Vektoren in V geben im Widerspruch zur Voraussetzung, die die Existenz einer Basis von k linear unabhängiger Vektoren beinhaltet. Aussage b) ist also eine unmittelbare Folgerung von Aussage a). 24) Ohne den Begriff der Dimension zu benutzen, können wir die Aussagen aus a) und b) auch so formulieren: Gibt es k linear unabhängige Vektoren, die den linearen Teilraum V erzeugen (also eine Basis bilden), dann sind je k +1
(oder mehr) Vektoren
aus V linear abhängig. Es kann also insbesondere keine Basis von mehr als k Vektoren geben. Es kann dann aber auch keine Basis von weniger als k Vektoren geben, denn aus deren Existenz, folgte ja damit, daß k Vektoren aus V nicht linear unabhängig sein können. Damit ist aber auch Satz 3.4 bewiesen.
155
3 Matrizenrechnung,
156
2. Teil
r(k) k linear unabhängige
25) Seien a ( 1 )
Vektoren aus V. Wir müssen zeigen, daß jeder Vektor a £ V als Linearkombination von a ^ , . .., a ' ^ darstellbar ist. Uach 23 a) sind die k + 1 Vektoren a' 1 ^, ..., a linear abhängig, d.h. a.,a(1>+a2a(2>
+
+ a
->• ( k) + c t a ka
->• * °
=
ist erfüllt, ohne daß alle Faktoren a a k ,a 1' gleich Null sind. Es muß a =f 0 sein, da andernfalls wegen der linearen Unabhängigkeit der (k) alle a a,,a gleich Null 1 wären. Damit ist a = - — (a. + 1 a (k) als Linearkombination von a ^' darstellbar . Da a ein beliebiger Vektor aus V war, bilden •(1 t(k) d eine Basis. 26)
i(3) sind linear unabhängig, wenn a (1) f a(2) .-(31 (1) aus a a2 a ( 2 ) ct3 a k ; = 0 folgt
a)
a^ =
a-2
Der Gaußsche Algorithmus liefert a
a3
RS
4
-1 -7
-6
0
0 0 0
1 0 0
-2
-1
1
1
a2
m -2 3
-2
3
0 0 0
-2
-1
0
0
0
-9
0
0
0
0 0
0 0
E U
Damit gibt es nichttriviale Lösungen (a^ = 0 , o^ = t £ IR, "(2) a 1 = 2 tl, und a( 1 ) t(3) sind linear abhängig.
3 Matrizenrechnung, 2. Teil
157
b) Für die Untersuchung auf lineare Unabhängigkeit von je zwei der Vektoren, kann man die gleichen Tableaus verwenden. Streichen der a^ - Spalte liefert schon im 2. Tableau, daß a'^' und a' 2 ' linear abhängig sind. Streichen der zweiten Spalte liefert lineare Unabhängigkeit von a ( 1 )
und
3
a^ ^. Streichen der a^ - Spalte liefert schließlich lineare Unabhängigkeit auch von a' 2 ' und a(3). c) Nach Satz 3.2 gilt V: = lin ) = lin {S(1), 2 ( 3 ) } d)
und
{5(2), S ( 3 ) }
(1
> , S( 2 ) , a ( 3 ) )
sind Basen.
dim V = 2.
e) Es ist das L G S2 2
a
i
a
1)
+
->(3) -»• a = e^ zu
untersuchen: a
1
0
a
2
RS
-1
1
Es gibt keine Lösung,
-2
-7
0
d.h.
3
0
0
1
-1
1 2
0 Q
3
-3
1
-1
1
0
-9
0
0
2 7 3
^
$
lin (a ( 1 ) , a ( 3 ) )
158
J Matrizenrechnung,
2. Teil
f) Da e^ sich nicht als Linearkombination der linear unabhängigen Vektoren darstellen läßt, (3) e^ linear unabhängig. .Wegen 1 0 0 dim IR = (Basis etwa aus / 0 1 0 t 0 0 1 sind a ( 1 )
bilden a ( 1 )
e^ nach der Aussage aus Auf-
gabe 25) eine Basis des IR"
27) a) Gauß-Algorithmus liefert lineare Abhängigkeit der 4 Vektoren. a
a2
a3
«4
RS
-3
1
2
0
b) Analog zu Aufgabe 26)
-4
0
-2
0
findet man hier, daß auch
4
-22
6
10
0
2
4
0
2
0
je 3 der 4 Vektoren linear .... . . , ->-(1) -+(2) abhangig sind, a , a sind (beispielsweise)
1
DJ -2
1
-3
1
2
0
0
|-io|
2
2
0
0
-10
2
2
0
0
10
-2
-2
0
1
2
0
1
-3
0
-10
2
2
0
0
0
0
0
0
0
0
0
0
0
c)
linear unabhängig. Die Maximalzahl linear unabhängiger Vektoren ist 2.
dim V = 2 (1 )
a) a
, a
( 2) bilden (u.a.) eine Basis. Man zeigt
leicht, daß je zwei der 4 Vektoren eine Basis bilden.
3 Matrizenrechnung,
2. Teil
159
28) a) Es ist nachzuprüfen, daß für n x n - Matrizen die Eigenschaften (1) bis (10) aus Definition 3.8 gelten: (1) bis (4), (7) bis (10) ergeben sich aus Definitionen 1.5, 1.6 und Satz 1.2. (5)
Das Element © des Vektorraums ist die n x n - Nullmatrix mit allen Elementen 0.
(6)
Zu jeder Matrix U = A = (a..) ist iD -U (-aij).
V
b) Die Summe zweier symmetrischer n x n - Matrizen ist offenbar eine symmetrische n x n - Matrix. Multipliziert man eine symmetrische n x n - Matrix mit a E K ,
so entsteht eine symmetrische n x n -
Matrix. Ausgeschrieben für n = 2: l
11
1 2
'12
22
A +B
1 c) a. 110
11
b
a
11
+ b
11
a
12
+ b
1 2
0 0
J
B =
a
12
a
22
0 1
+ a-
1 0
12
+ b
+ b
1 2 b
1 2
22
22 + ct.
'12
'11
aA
22
'12
0 0
0 1
0 o
oder 0
0
0
0
ist nur erfüllt für a^ = c^ =
0
(Gleichheit
von Matrizen). Also sind A^, A2, A^ linear unabhängig.
0 o
160
3 Matrizenrechnung,
2. Teil
d) Die Linearkombinationen et^ A.^ + a^ A 2 =
a
1
M 0
0 I + ^a 0 2
I 0 1 i+ 1 0
ö
3
O 0
+a
3
A
Ol 1
3
a
a
2
3
mit a^, a^i a^ £ ffi erfassen alle symmetrischen 2 x 2 - Matrizen, d.h.
lin (A^ , A 2 , A^) = M^
2
e) Nach d) und c) bilden A^, A 2 , A^ eine Basis von M 2 ^ 2 . 29) a) Wir müssen zeigen, daß die Summe zweier Polynome höchstens n-ten Grades und das Produkt eines Polynoms höchstens n-ten Grades mit einer reellen Zahl jeweils wieder ein Polynom vom Grade höchstens n ist: Seien p(x) = c n x n +c n-1 r 1 x — 1 \ p(x) v
n
^ + . . . + c .1x + c o £ P n,
, — .. xn—1 + ... +, —c- x + —c = — cn x n +c n-1 1 o
£ P n .
Dann gilt p(x) +p(x) = ( c n + c n ) x n + (cn_1 + c n - 1 ) x n - 1 + ...+ (co+co) Dies ist offenbar ein Polynom vom Grade höchstens n. Ebenso gehört ap(x) = (a c ) x n + (acn_^)xn
+...+(ac^)x+acc
zu P n. Bemerkung: Man darf nicht die Polynome n-ten Grades betrachten, weil der Grad als höchste wirklich auftretende Potenz von x definiert ist. Für c n = - c n z.B. ist die Summe zweier Polynome n-ten Grades aber höchstens vom Grad n-1, so daß für die Überlegungen dieser Aufgabe Polynome vom Grade ¿n(höchstens n)zugelassen werden müssen.
3 Matrizenrechnung, 2. Teil
b) p Q (x) = 1, P 2 (*) = X'
(x) =
x2
/ '••> P n ( x )=* n
sind linear unabhängig, wenn a Q -1 + a 1 x + a 2 x 2 + ... + a n x n =
0
(1)
nur für ao = a^1 = a~Z = ... = a n = 0 erfüllt ist. (1) muß für alle x E K
gelten. Die linke Seite
von (1) ist aber ein Polynom vom Grade höchstens n. Nach dem in der Aufgabenstellung angegebenen Satz über Nullstellen von Polynomen, können alle reelle Zahlen Nullstellen nur für das Nullpolynom sein, d.h. für ao =a, = ... = an = 0 . l c) und d) Nach Definition eines Polynoms ist jedes Polynom vom Grade höchstens n Linearkombi„ 2 n nation von 1, x, x , . . . , x . p , p^, ..., p n sind nach b) linear unabhängig und erzeugen P . Sie bilden damit eine Basis von P , das die Dimension n + 1 hat.
161
162
3.2
3 Matrizenrechnung,
2. Teil
Rang einer Matrix, Lösbarkeitskriterium für lineare Gleichungssysteme
3.2.1
Rang einer m x n
- Matrix
Existenz, Eindeutigkeit, Vieldeutigkeit von Lösungen, Redundanz von Gleichungen bei linearen Gleichungssystemen Ax = b hängen davon ab, ob und wie Zeilen der Matrizen A bzw. (A, b) Linearkombinationen anderer Zeilen sind. Dies haben wir uns schon in einigen Beispielen klargemacht. Definition 3.9: Sei A eine m x n - Matrix. Die maximale Anzahl linear unabhängiger Zeilenvektoren der Matrix A heißt Zeilenrang von A. Die maximale Anzahl linear unabhängiger Spaltenvektoren der Matrix heißt Spaltenrang von A. Auf den ersten Blick überraschend gilt für jede Matrix, daß Spalten- und Zeilenrang übereinstimmen. Anders ausgedrückt: Die Anzahl der linear unabhängigen Spaltenvektoren einer Matrix stimmt stets mit der Anzahl ihrer linear unabhängigen Zeilenvektoren überein. Um dies zu zeigen und eine einfache Methode zur Berechnung dieser Anzahl bereitzustellen, beweisen wir zunächst Satz 3.5: (i)
Sind a ^ ' , ..., a" 4 ' linear unabhängige Vektoren, ^ • ^ auchu a^ a-*-(D + a 2 a->- (2), a (2), ..., a (k) dann sind mit reellen Zahlen a 1 =|= 0,
linear unabhängig.
3 Matrizenrechnung,
(ii)
2. Teil
163
Sind A
r
>
a.[k)
\
,(2)
(1)
a(k) linear
W' "m
'
¿2)1
m
/
/
unabhängig, dann sind auch I
a^ a^( 1 )
+ a
2a21)\
/ = 6 .
(1)
= 0 folgt. (1) ist gleichbedeutend mit (ßiai)a(1) + (6^2 + ß2)a(2) + . . . + ßka(k) Wegen der linearen Unabhängigkeit von a ( 1 ) folgt ß1
=0 /
a
(k)
= ß1 a 2 + ß 2 = ß 3 = ... = ß k = 0
Mit a 1 =j= 0 folgt
= 0
aus ß1 a 1
0 und damit aus
5^2+ ß 2 = 0 auch ß 2 = 0. Somit sind + a2l(2), t{2)
(k)
(k)
linear unabhängig,
(a^ =(= 0 muß verlangt werden, warum?)
(k)
164
3 Matrizenrechnung,
2. Teil
Zum Beweis von (ii) ist zu zeigen, daß das homogene L G Sm, k 'a,a„(1)+a„a\ 2 2
f a ^ K a ^ A
/
/a1a1
(2)
(k)' +a 2 a 2
(1
(2)
(k)
(D
(2)
(k)
\J
nur die triviale Lösung = ßj = ••• = ßj- = 0 besitzt. Subtraktion der mit a 2 multiplizierten zweiten Gleichung von der ersten und nachfolgenden Multiplikation der so veränderten ersten Gleichung mit 1 liefert
/a''"\ /a!2>\ ,(2)
1 \a< » m >/'
(2 \a' » m V'
(k)
\x am( k ) /'
O
u /
Nach Satz 2.2 sind beide Gleichungssysteme äquivalent. Aus dem zweiten folgt wegen der linearen Unabhängigkeit der auf der linken Seite auftretenden Vektoren >1
ä2 = ... ßk = o.
o
Zeilen- und Spaltenvertauschen haben offenbar keinen Einfluß auf Zeilen- und Spaltenrang, so daß aufgrund von Satz 3.5 sich weder Spalten- noch Zeilenrang einer Matrix ändern, falls man die beim Gaußschen Algorithmus oder Gauß-Jordan-Algorithmus auftretenden Operationen durchführt.
3 Matrizenrechnung,
2. Teil
165
Wenden wir die Verfahren von Gauß und Gauß-Jordan auf das homogene lineare Gleichungssystem A x = O an, so bleiben alle rechten Seiten im Laufe des Verfahrens unverändert gleich Null. STOP 1 im jeweiligen Schritt 3 kann nicht auftreten (das horaogene System besitzt ja stets die Lösung x = O). Verzichten wir in Schritt 3 auf das Streichen von Nullzeilen so erhalten wir im jeweiligen Schritt 6 die im folgenden Satz beschriebenen Gestalten — A A und A der Matrix A. Satz 3.6: Jede von der Nullmatrix verschiedene m x n - Matrix A kann durch weder Zeilen- noch Spaltenrang verändernde Operationen in eine der drei folgenden Formen A , S und A transformiert werden. 1 . . 5, a a 1 11 a 1 2 1,p+1 P i 0 ä_ i a a 22 2,p+1 2p
A =
0
0
. .0
0
0
..
EL
,
PP ' — — — —1 0
1
1
a p,p+1 ,,
"n
•*
-,n\
p Zeilen
a
pn
0 m-p Zeilen
0
0
..
0
1 ,
0
p Spalten
mit a ^
£ 0, a 2 2 * 0, ...,
n-p Spalten
4
0.
166
A
3 Matrizenrechnung,
2. Teil
1
0
...
0
a
1,p+1
•••
a
ln
0
1
...
0
a
2,p+1
•••
a
2n
0
0
...01
0
0
...
A =
a „ p,p+1
. . . ...
0
V
p Zeilen
a pn 0 m-p Zeilen
0
0
...
.
0
0
p Spalten
A =
...
0
J
1
0
0
1
0
0
0
0
n-p Spalten
0
...01
0
...
...
0
\
p Zeilen
0
m-p Zeilen 0
0
0 j
p Spalten A entsteht beim Gauß-Verfahren und heißt Dreiecksform oder Staffelform von A, da im linken oberen p x p Block die Elemente unterhalb der Hauptdiagonalen gleich Null sind und die letzten m-p - Zeilen nur Nullen enthalten, a.,, a,,-,,.... a sind die bei 11 22 pp Lösung von A x = 0 aufgetretenen Pivotelemente. ^ entsteht beim Gauß-Jordan-Verfahren und heißt kanonische Form von A. Sie enthält links oben eine p x p - Einheitsmatrix; die letzten m-p Zeilen enthalten nur Nullen.
3 Matrizenrechnung,
2. Teil
A schließlich erhält man aus A durch Subtraktion geeigneter Vielfacher der ersten p Spalten von jeder der letzten n-p Spalten (Übung: wie genau?) Zeilenrang und Spaltenrang von
sind (sofort
ablesbar) beide gleich p. Da jeweils nur Zeilenund Spaltenrang nicht verändernde Operationen ausgeführt wurden, erhalten wir Satz 3.7: Für jede in x n - Matrix A gilt: a) Zeilenrang und Spaltenrang sind gleich. Sie werden daher Rang der Matrix A genannt (Abkürzung r(A)). b) Der Rang r(A) ist gleich der Anzahl der Pivotelemente, die bei Anwendung von Gauß- oder GaußJordan-Verfahren auf das Gleichungssystem Ax
=0
auftreten .
Bemerkungen: 1. Aussage b) hatten wir in den Bemerkungen zu den beiden Algorithmen in Kapitel 2 bereits vorweggenommen. Sie beinhaltet insbesondere, daß sich bei Anwendung eines der beiden Verfahren unabhängig von der speziellen Wahl der Pivotelemente stets die gleiche Anzahl von Pivotelementen ergibt. Diese ist gleich der Anzahl der linear unabhängigen Zeilenvektoren in A, und diese stimmt weiter stets mit der Anzahl der linear unabhängigen Spaltenvektoren von A überein.
167
3 Matrizenrechnung,
168
2. Teil
2. Aussage b) liefert auch ein Rechenverfahren zur Bestimmung des Ranges einer Matrix A. 3. Statt A x = 0 kann man zur Rangbestimmung Gaußoder Gauß-Jordan-Verfahren auch auf A x = b mit beliebigen rechten Seiten b anwenden, allerdings mit der Modifikation, daß in Schritt 3 jeweils mit STOP 1 nicht abgebrochen werden darf, sondern solange weitergerechnet wird, bis kein Pivotelement mehr auffindbar ist. 4. Für jede (m xn) - Matrix A gilt r(A) i min (m,n). Hierbei bedeutet min (m,n) das Minimum von m und n. (Beweis = Übung) 5. Seien a ( 1 ) , ..., a ( k ) k Vektoren des IRn . Da man a ' ^ , ..., a ^ ' stets als Spalten (oder Zeilen) einer n x k - Matrix A (oder k x n - Matrix T A ) auffassen kann, ist es sinnvoll, auch vom Rang eines Systems von Vektoren zu sprechen. T Dieser ist dann als Rang von A bzw. A definiert und stimmt mit der Dimension des von a ^ ' , ..., (k) a
erzeugten linearen Teilraums überein.
Beispiel 65: Die Ränge der Matrizen aus den Beispielen 43, 44, 45, 46 sind (nacheinander) 3,2,2,3 (vgl. dort). | 3.2.2 Lösbarkeitskriterien für lineare Gleichungssysteme Das Gauß (oder Gauß-Jordan)-Verfahren stellt zu jedem linearen Gleichungssystem L G S ^ n fest, ob es eine Lösung besitzt, und gestattet, im Falle der Existenz von Lösungen, diese alle zu berechnen. Für
3 Matrizenrechnung,
2. Teil
einige Anwendungen ist es jedoch nützlich, Lösbarkeitskriterien mit Hilfe der Ränge von Koeffizientenmatrix A und erweiterter Matrix (A, b) bereitzustellen. Hierbei ist a
1 1 ' ••"' a 1n
'
b
1
(A, b ) = a_ a m1 , . . . , mn
,
mb
wieder die Matrix, die man aus A durch Hinzufügen einer (n+1)-ten Spalte des Vektors der rechten Seiten erhält. Ein L GS_m, n besitzt mindestens eine Lösung, wenn 3 in Schritt 3 STOP 1 nie auftritt. STOP 1 tritt genau dann nicht auf, wenn keine Nullzeile in der umgerechneten Matrix A auftritt, oder wenn zu jeder Nullzeile der durch das Verfahren modifizierten Matrix A auch eine Null in der rechten Seite gehört. Die rechten Seiten b^ müssen die gleichen Linearkombinationen bilden wie die entsprechenden Zeilen der Matrix A. Nach den Überlegungen zu Satz 3.7 kann man dies auch ausdrücken durch Satz 3.8: Das inhomogene lineare Gleichungssystem A x = b mit gegebener m x n - Matrix A und gegebenem Vektor n b £ IR
ist genau dann lösbar, wenn gilt r (A, b) = r (A) .
169
3 Matrizenrechnung,
170
2. Teil
Beispiel 66: Für
x1 + x 2 +
=1
gilt r(A) = 2, r(A,S) = 3.
= 1
Das System besitzt keine Lösung.
- x 1 - 3x 2 = 2
(vgl. Bsp. 44)
Bevor wir alle Möglichkeiten für die Lösungsmenge eines L G S
zusammenstellen, gehen wir noch kurz m, n 'J auf homogene L G S ein. ^ m, n Für homogene L G S ^
n
gilt stets r(A,b) = r(A), weil
Hinzufügen einer Nullspalte den Rang einer Matrix offenbar nicht verändert. Überdies ist bekannt, daß A x =0
stets mindestens die triviale Lösung
x = 0 besitzt. Satz 3.9: (i)
Das homogene L G S m, n A x ^
= 3 hat nur die
triviale Lösung, falls r(A) = n. Es hat nichttriviale Lösungen falls r(A) = p < n. (ii)
Sind x ( 1 ) , x { 2 ) , ..., x ( r ) Lösungen des homogenen Systems A x = 6, dann ist auch jede Linearkombination x(1)
+
a25(2)
+
...
+
ar5(r)
Lösung. (iii) Gilt r(A) = p < n, dann bildet die Lösungsmenge des homogenen L G S
A x = 6 einen ^' n (n-p)-dimensionalen linearen Teilraum des IR .
3 Matrizenrechnung,
2. Teil
Nach Schritt 6 des Gauß-Verfahrens haben wir eine eindeutige Lösung eines L G S ^
n
A x = b
nur für
r(A) = n. Für b = 0 ist dies die triviale Lösung. Also gilt (i). (ii) zeigt man durch Einsetzen: A (c^ x ( 1 ) + a 2 2 ( 2 ) + ... + a r x i r ) ) = a 1 Ax' 1 '+a 2 Ax' 2 '+...+a r Ax' r ' = a 1 6+a 2 6+...+a r 6 = O. Mit r Lösungen ist auch jede Linearkombination dieser Losungen eine Losung von A x = 0 . Die Losungsmenge eines homogenen L G S bildet also einen linearen m n n ' Teilraum des ]R Es ist für (iii)noch zu zeigen, daß dieser lineare Teilraum die Dimension n-p hat. Dazu denken wir uns das System mit dem Gauß-Jordan-Verfahren umgeformt bis in Schritt 6 des Verfahrens die Matrix A in der Forma A aus Satz 3.6 vorliegt. Ohne Beschränkung der Allgemeinheit nehmen wir an, daß die ersten p Zeilen Pivotzeilen waren und die ersten p Spalten Pivotspalten. Dann sind die Variablen wählbar, während sich x^, ..., x von x p + i '
x
* " " * ' xn nach Festlegung
eindeutig ergeben. Die frei wähl-
n
baren Variablen fassen wir zu einem Vektor x^:= (x ..,,... ,x )^ e IRn P zusammen, die d dann eindeutiq 1 p+1 ' n ^ Va] festgelegten Variablen zu einem Vektor ->T D jösungs ist x := (x 1f ...,x ) e 3R . Jeder Lösungsvektor B I p t / X damit in der Form x = B darstellbar und das Gleichssystem i x T
p
X
B
geschrieben werden.
+
=5 N X
N
kann in der Form =
5
(1)
171
3 Matrizenrechnung,
172
Hierbei
ist I
2. Teil
die pxp - Einheitsmatrix
P
/* 1, p+1
a
•••
und
1n
N = a
Aus
, . ... a p,p+1 pn
(1) folgt X
=
B
"
N
X
(1 ' )
N
Die L ö s u n g s m e n g e erhält man, indem m a n x N alle V e k toren des IR n ^ xß
durchlaufen
aus
(1 ) errechnet. Der Raum I R
sion n-p. A l l e x N
lassen sich a l s
Seien
= a. e. + 1 1
N x
zugehörigen
hat die D i m e n -
Linearkombination darstellen:
e„ + ... + a e 2 n-p n-p
2 N ei
B,i
n-p
6. des IR n ^ i
der n-p E i n h e i t s v e k t o r e n x
läßt und die
1
(2)
(i = 1,...,n-p) die W e r t e
aus
(1')/ w e n n m a n für x N
nacheinander e^
einsetzt.
Für einen b e l i e b i g e n ,
in der Form
geschriebenen
Vektor x N
ergibt N
(a1
e1
+ a
+
n-p
a- ( - N e , ) + . . . + 1 1 a
1
X
B,1
(2)
sich dann
+
+ a
n-p
a
n-p
e
n-p
)
( - N e
x„ B,n-p
Damit sind a l l e Lösungsvektoren x als nationen der b
(1)
JB,1 2
darstellbar.
) n-p
< • • •
/ b
Linearkombi(n-p). = ^B,n-p ä
1
Diese sind aber linear u n a b h ä n g i g ,
ihre letzten n-p K o m p o n e n t e n von den toren g e b i l d e t
werden.
n-p da
Einheitsvek-
3 Matrizenrechnung,
2. Teil
;(n-p) Aus a 1 S ( 1 ) + . , + a = 0 n-p folgt nämlich insbesondere a.1 e„1 + . . . + n-p a
pe
= Ö,
a was nur für oi1, = a-, 2 = . . . = n-p Damit bilden 5'1^,...
^
= 0 erfüllbar ist.
eine Basis der
Lösungsmenge des homogenen Gleichungssystems. Diese ist also ein (n-p)-dimensionaler linearer Teilraum des ÜRn . Wir bemerken noch, daß x ß ^ der i-te Spaltenvektor von -N ist (i = 1,...,n-p).
O
Beispiel 67: Gauß-Jordan angewandt auf x^ - 2X2 + 4X3 = 0 2x1 - 4X2 + 8X 3 = 0 liefert
X
1
X
X
2
3
1
-2
4
0
0
0
0 0
Der Rang der Koeffizientenmatrix xB = (Xl),
X
B,1 =
(2
xN
' "4)
X
2
, (2);
N = x ß f 2 = (2, -4)
n
= (-4)
Damit bilden ;(2)
-4 0 1
eine Basis des Lösungsraumes. Die Lösungsmenge des Gleichungssystems ist durch die Linearkombinationen gegeben.
_J
173
3 Matrizenrechnung,
174
2.
Teil
Definition 3.10: Hat die Lösungsmenge des homogenen L G Sm A x = 0 -w-D '5(r) die Dimension r und ist durch d
, . .., b
eine
Basis der Lösungsmenge gegeben, dann heißt der Ausdruck
a, S ( 1 ) + a 2 S ( 2 )
+
...
+
mit Parametern o^ , ..., « r e IR
ar S(r) die allgemeine
Lösung von A x = O. Ein interessanter Zusammenhang zwischen der Lösungsmenge eines inhomogenen L GS
Ax
= b
des zugehörigen homogenen Systems A x = 0
und der folgt aus
der einfachen Feststellung, daß die Differenz x 1 - x 2 zweier Lösungen x^, x 2 des inhomogenen Systems stets eine Lösung des zugehörigen homogenen Systems ist. Es ist nämlich A (x1 - x 2 ) = A x 1 - A x 2
= b - b = 0.
Satz 3.10: Sei x s eine spezielle Lösung des inhomogenen Systems Ax
= b. Jede Lösung des inhomogenen Systems hat die
Form x = x
+ x, , wobei x.
Lösung des homogenen
Systems A x = 0 ist. Bemerkungen: 1. Wie die Vektorraumstruktur des IRn vielfältige Analogien in der Mathematik besitzt, so findet man Satz 3.10 entsprechende Aussagen auch in wichtigen weiteren Teilgebieten der Angewandten Mathematik. Ein Analogon zu Satz 3.10 ist z.B. von fundamentaler Bedeutung zur Lösung sogenannter linearer Differentialgleichungen, die eine wesentliche Rolle u.a. in der Wirtschaftsmathematik spielen.
3 Matrizenrechnung,
2. Teil
175
2. Satz 3.10 folgt auch unmittelbar aus der in Schritt 6 des Gauß (oder Gauß-Jordan)-Verfahrens vorliegenden Form der Gleichungssysteme
(Wie?
Übung). Eine geometrische Interpretation homogener L G S ^
n
gestattet weitere Einblicke in die Struktur des Vektorraums K n . Mit den Zeilenvektoren T a. = (a.1f ..., a. ) (i = 1,...,m) läßt sich das i 11 in homogene L GS A x = 0 auch in der Form J m, n -> T ->• a^ x = 0
( i = 1,...,m)
schreiben: Lösungen des homogenen Systems sind orthogonal zu allen m Zeilenvektoren der Koeffizientenmatrix A. Sei der Rang von A wieder gleich p. Dann gibt es p linear unabhängige Zeilenvektoren in A. Ohne Beschränkung der Allgemeinheit nehmen wir wieder an a^ , . .., a^ seien linear unabhängig. Diese bilden eine Basis eines p-dimensionalen linearen Teilraums (n_p)
des lRn . ..., S seien Basisvektoren P der (n-p) -dimensionalen Lösungsmenge, die wir als
V
linearen Teilraum des IRn hier mit
bezeichnen
wollen. Man sieht nun leicht, daß die n Vektoren i(1 ) , ..., £ , . , , .. a^, ..., a^, b b (n-p) ^ linear unabhängig sind. Dazu zeigen wir, daß die Gleichung
(aiS1+a2V-..%V nur für a 1 = ... = a
+ (B
1ß(1,+B26(2, + - + e n - p ß ( n * P ) ) =
= ß1 = ... = ß n _ p
=
0
erfüll-
bar ist. Die erste Klammer liefert einen Vektor a G V , die zweite einen Vektor x aus W mit P n-p a + x = 6, also
a = - x.
(1)
3
3 Matrizenrechnung,
176
2. Teil
Jeder Basisvektor von V p ist orthogonal zu jedem Basisvektor von W
n-p
. Da sich
(a 1 a 1 + . . . + a p a p ) ' r ( ß i g ( l ) + _ > + ß g ( n - p ) )
durch Ausmultiplizieren als Summe von Produkten der Form a ± ß^ a ^
S ( l l ) ergibt, die alle gleich Null
sind, folgt, daß jeder Vektor aus V
orthogonal r ist zu jedem Vektor aus W n _ p . Insbesondere gilt
a T x = 0, woraus mit x = (x 1 ,...,x n ) T wegen (1) folgt a T x = (-x) T x = - [(x.,)2 + (x 2 ) 2 +...+(x n ) 2 ] = 0. Eine Summe von Quadraten kann aber nur gleich Null sein, wenn alle Summanden verschwinden. Es folgt x 1 = x 2 = ... = x n = 0, also x = 0 und a = - x = 6. Somit ist
a ^ ^ . . .+a p a p = 6
ß S(1)+..,+R
und
= 8 , woraus wegen
n-p
der linearen Unabhängigkeit der a 1 , ..., a p und der S(1) a
S(n"p) 1
=
•••
=a
p
folgt, daß
- « 1
=
"'
= ßn _ P
=
0
gilt. p linear unabhängige Zeilenvektoren einer m x n Matrix A vom Rang p und (n-p) Basisvektoren des Lösungsraums des homogenen Gleichungssystems A x = 6
bilden zusammen ein System von n linear
unabhängigen Vektoren des IRn ,also eine Basis des IRn . Da man p linear unabhängige Vektoren des 3R stets als Zeilenvektoren einer Matrix A auffassen und das System A x = 3 lösen kann, haben wir die im folgenden Satz formulierten Erkenntnisse über den Vektorraum m
n
gewonnen.
3 Matrizenrechnung,
2. Teil
Zunächst Definition 3.11: Sei V ein linearer Teilraum des ü n . Dann heißt die Menge W aller Vektoren des K n , die orthogonal sind zu jedem Vektor aus V, der Orthogonalraum von V. Satz 3.11: Ist V ein linearer Teilraum des ]Rn der Dimension p , dann ist der Orthogonalraum W von V ein linearer Teilraum des ]Rn der Dimension n-p. Jeder Vektor x des ZRn kann als Summe x = v + w dargestellt werden, wobei v zu V und w zu W gehört. Beispiel 68: 1 (1)
(2)
2
3 4
sind linear
unabhängige Vektoren des ]R
Wir bestimmen den
Orthogonalraum W zu V = lin (a'(1> fassen wir a ^
a ( 2 »).Dazu
und a'^' als Zeilen einer Matrix A
auf und betrachten das zugehörige homogene L G Sj ^ x^ + 2X2 + 3x^ +
= 0 ,
2x1 + 2x2 + 2X3 + 2X4 = 0 . Gauß-Jordan liefert X
1
X
2
x
3
X
4
1
2
3
4
0
0 1
-2 0
-4
-6 -2
0 0
0
1
3
0
-1 2
177
178
3 Matrizenrechnung,
2. Teil
Analog zu Beispiel 67 bestimmen wir eine Basis des Lösungsraums: X
B =
I 2 |
'
Iii
= - N
B» 1
*N
- - (?)
B, 2
N
=
•1
-2
2
3
-U-! u (?)
U)
-U-l
2 -3
Damit wird
2
1 *n>
2
=
W=
;(2)
1 0 •+(11
lin
-> (1) ->- ( 2) v a , b
-3 0
=
1
•+ ( 2)
'). Die Vektoren
(1 ) l ( 2) b ' bilden eine Basis des JR
4
Zur Probe prüfen wir die Orthogonalität: T
a
(1 )
b
(1) = 1-1 + 2(-2) + 3-1 + 4-0 = 0
-+(1) a
£(2) = 1-2 + 2 (-3) + 3-0 + 4*1 D
0
2T
b n ; = 2-1 + 2(-2) + 2 - 1 + 2-0
0
a
b
= 2-2 + 2(-3) + 2-0 + 2 - 1 = 0 .
_J
Zum Schluß dieses Abschnitts fassen wir die möglichen Fälle, die bei linearen Gleichungssystemen hinsichtlich der Lösungsmenge auftreten können, zusammen. A) Inhomogenes L G S m, n a) r (A) j r (A,b)
A x Es gibt keine Lösung.
Beim Gauß-Verfahren tritt eine Zeile mit allen Koeffizienten gleich Null auf; die zugehörige rechte Seite ist verschieden von Null.
3 Matrizenrechnung,
b)
2. Teil
r (A) = r (A,S) < = > Es gibt mindestens eine Lösung.
b^ ) r (A) = r (A,b) = n Es gibt genau eine Lösung (Eindeutigkeit). In Schritt 6 des Gauß-Verfahrens bleibt keine frei wählbare Variable; alle Spalten von A waren Pivotspalten. Wegen r(A) ä min (m,n) ist Eindeutigkeit nur für m ä n möglich. Im Fall m = n ist keine Gleichung redundant. Im Fall m > n sind m - n Gleichungen redundant; es treten dann m - n Nullzeilen (mit rechter Seite gleich Null) im Gauß-Verfahren auf. b 2 ) r(A) = r(A, b) = p < n
Es gibt unendlich
viele Lösungen, n - p Variable sind frei wählbar, m - p Gleichungen sind redundant (Nullzeilen im Gauß-Verfahren)
B)
Homogenes L G S
m, n
A x = 0:
Es gibt stets mindestens die triviale Lösung x = 0. r(A) = n Es gibt nur die triviale Lösung. Ansonsten gilt das unter b^) Vermerkte auch hier. r(A) = p < n < = > Die Lösungsmenge ist ein (n - p)dimensionaler linearer Teilraum des 3Rn . Ansonsten gilt das unter b_) Vermerkte auch hier.
179
180
3 Matrizenrechnung,
2. Teil
Aufgaben zu Abschnitt 3.2 30) a) Man transformiere die Matrix
A =
1
2
2 3
3 5
1 1
0 ' 1
2
1
in die Form Ä aus Satz 3.6. Dabei dürfen nur Zeilen- und Spaltenvertauschungen und die Operationen aus Satz 3.5 benutzt werden. b) Welchen Rang hat die Matrix A? 31) Durch Addition welcher Vielfacher welcher
(V Spalten zu welchen Spalten erhält man Matrix A
des Satzes 3.6 aus Matrix A des Satzes 3.6. 32) Man bestimme den Rang der folgenden Matrizen 1 A =
0 2 1
/ 0 0 1
0 0
0 2 0 1
0 4 4 1
3
2
0
0
6
0 0
7 4
0 0
1
1 1 1
0 0 1 1
0 0 1 1
0 1
0
0 1
0 1
,0 0
1
1 0 1
0 4
0 0
0
2 °
1
0
1 1 1 1
1 1
0 1
/
1 1 1 1
Hinweis: Zeilen- bzw. Spaltentausch führen auf Matrizen, deren Rang unmittelbar ablesbar ist.
3 Matrizenrechnung,
2. Teil
33) Man bestimme den Rang der Matrix 0 0 3 0 O
4
2
1
0 0 4 -1 -3 0 3 0 0 0 5 4 0 0-1 4 -4 0
0 0
0
0 1
0 0
0
1/
34) Warum gilt für eine m x n - Matrix A stets r (A) ä min (m, n) ? 35) Gegeben sei das Gleichungssystem x^
+ 3x3 + 4X4 = 15 2x„2 + 6x-, 3 + 10x. 4 = 32 x2 + x3 = 5
x 1 +3x 2 + 10x3+ 14x4 = 52 a) Man bestimme die Ränge der Koeffizientenmatrix und der erweiterten Matrix. b) Unter Verwendung von a) prüfe man, ob das gegebene System eine Lösung besitzt. T c) (2,2,3,1) ist eine spezielle Lösung des gegebenen Systems. Man bestimme die Gesamtheit der Lösungen mit Hilfe der Lösung des zugehörigen homogenen Systems. d) Man verifiziere die in c) erhaltene Lösung durch Einsetzen in das ursprüngliche System.
181
182
3 Matrizenrechnung,
2. Teil
36) Gegeben sei das Gleichungssystem X
1
X
1
2x
1
+ 2X 2 + +
x
2
x
3
=
1
+ 2x^ = 3
+ 5X 2 + 3X 3 = 2
"X1
-
4X2
-
x^ = t
a) Unter Verwendung des Satzes 3.8 prüfe man die Lösbarkeit des Systems. Dabei unterscheide man zwischen t=1, t^1. T b) (2,-1,1)
ist eine spezielle Lösung des
lösbaren Systems. Man bestimme die Gesamtheit der Lösungen mit Hilfe der Lösung des zugehörigen homogenen Systems. c) Man verifiziere die erhaltene allgemeine Lösung durch Einsetzen in das ursprüngliche System. 37) Gegeben seien die beiden Vektoren 1
(i: -3 4 a) Man prüfe a
2
(2)
(1)
des IR"
- 6
und a
( 2)
auf lineare Unabhän+ (2) , a aufgigkeit und bestimme den von a ( 1 ) gespannten linearen Teilraum V des IR^ sowie eine Basis von V.
b) Man bestimme den Orthogonalraum W von V und eine Basis von W. c) Unter Verwendung von in a) und b) aufgetretener Vektoren gebe man eine Basis des IR
an.
3 Matrizenrechnung,
2. Teil
Lösungen der Aufgaben zu Abschnitt 3.2 30) a) Man verwendet beispielsweise zunächst die Operationen des Gauß-Jordan-Verfahrens: Addition des (-2)-fachen der 1. Zeile zur 2. Zeile und Addition des (-3)-fachen der 1. Zeile zur 3. Zeile (Umrechnung bei Pivotelement a^ ^) : 2
1
1
0
-1
-1
0
-1
-1
Multiplikation der 2. Gleichung mit -1, Addition des (-2)-fachen dieser so umgeformten 2. Gleichung zur 1. Gleichung, des 1-fachen zur 3. Gleichung: 1 A =
0 -1
2
0
1
1 -1
0
0
0
0
Dies ist die kanonische Form der Matrix A. Addition des 1-fachen der 1. Spalte und des (-1)-fachen der 2. Spalte zur 3. Spalte: 1 0 0
0
0
2 1
1 0 - 1 0
0
0,
Addition des (-2)-fachen der 1. Spalte und des 1-fachen der 2. Spalte zur 4. Spalte:
A =
1 0 0 0 0 1 0 0 0 0 0 0/
b) r (A) = 2
183
3 Matrizenrechnung, 2. Teil
184
31) Zur Spalte p + i (für i = 1,...,n-p) ist zu addieren das (-a. ,.)-fache der Spalte j, jeweils für j = 1,...,p. 32) Beide Matrizen sind auf Diagonalform (im Sinne der Form Ä aus Satz 3.6) zu bringen. Matrix A wird durch Spaltentausch zu 3
0 4
A= 0 0 lo
0 0
0 0 2 0
0 0 0 1
1 0 2 1
0 2 0 1
0 4 4 1
2 6 7
, r(A)=r(A)=4
4
Matrix B wird durch Zeilentausch zu
B'=
/
1 0 0 0 0 0
1 1 0 0 0 0
1 1 1 0 0 0
1 1 1 1 0 0
0
0
/
Hieraus ergibt sich durch Vertauschen der beiden letzten Spalten
B=
\
1 0 0 0 0 0
1 1 0 0 0 0
1 1 1 0 0 0
\
1 1 1 1 0 0
, r(B)=r(B)=6
/
33) Durch Spaltentausch erhält man
/04-30 A=
0 0 \0
0 0 0
0 0 3 0 0
0 0 0 1 0
0 2 0 4 0 3 0 5 1 -14
r (A) =r (A) =5
3 Matrizenrechnung,
2. Teil
185
34) Nach Satz 3.7 ist der Rang einer Matrix gleich der maximalen Anzahl ihrer linear unabhängigen Zeilenvektoren, also r(A) S m. Er ist aber auch gleich der maximalen Anzahl ihrer linear unabhängigen Spaltenvektoren, also r(A) S n. 35) r(A) und r(A,b) lassen sich gemeinsam bestimmen durch Anwendung des Gauß-Verfahrens auf A x = b. X
1
m
X
2
X
3
X
4
3
4
0 0 1
0 2 1 3
6 1 10
10 0 14
1
0
3
4
1 3
6 1 7
10 0 10
3
4
0
0 2
6
10
0 0
0 0
E3
1
0 2 0
0 0 0 1
0 0 0
m
0
RS 15 32
15 32
c) Die allgemeine Lösung des homogenen Systems ist
5 37 15 32
-2
-11 -11
3
4
6
10
15 32
-5 0
b) Nach Satz 3.8 hat das Gleichungssystem eine Lösung
5 52
-5 -5
-2 0
a) r (A) = r (A, b) = 3
x
h
=
M5 2
t
t e IR
-5 t
u
Nach Satz 3. 10 ergibt sich
-1 1 0
/ x = x, +x = h s
i t + 2\ 5 t + 2 2 5 t + 3 2
t
+ 1
d) Einsetzen zeigt, daß das ursprüngliche System erfüllt ist.
t e
»
186
3 Matrizenrechnung,
2. Teil
36) Gauß liefert die Dreiecksform: X
1
X
x
2
RS
3
1
2
1
1
0
-1
1
2
0
0
2
2
0
0
0
t-
a) r (A) = 3; r(A,b)=3 genau für t = 1. Für t ï 1 gilt r(A,S)=4.
Damit hat das System nur für t = 1 eine Lösung. b) Da der Rang r(A) gleich der Anzahl n = 3 der Unbekannten ist, besitzt das homogene System nur die triviale Lösung, das inhomogene die eindeutige Lösung 2 - 1 x = x, + x h s 1 c) Einsetzen zeigt, daß das ursprüngliche System erfüllt ist. ;(2)
37)
_
2
1
2a (i:
- 6
-3 4
Die Vektoren sind linear abhängig. Damit wird •(2) . schon von einem der beiV = lin (a ( 1 ) den Vektoren erzeugt; wir wählen die Basis (1)
für den eindimensionalen Raum V.
V = {a T =(a 1 ,a 2 ,a 3 )e IR3
a *1
a,a2=-3a,a2=4a,aeiR },
b) Alle Vektoren, die orthogonal sind zum Basisvektor
a ^ ' von V, bilden den Orthogonal-
raum W von V. Dessen Elemente sind also die Lösungsvektoren x a
(1)T
x =
= (X^,X2,X2> von
x 1 - 3X 2 + 4X 3 = O.
Der Rang der zugehörigen Koeffizientenmatrix ist trivialerweise 1. Wir wählen = |x2 |
x ß = (x^),
, damit N = (-3,4) . Es folgt
3 Matrizenrechnung,
X
B,1 -
(3
' -J>
Ii
= (3),
x B ; 2 = (3,-4)^
Eine Basis von W ist dann durch -4 3 ;(2) = : p.^, für den 1 a. = 0 ist.
3 Matrizenrechnung,
2. Teil
Zum Beweis von (ii) verwenden wir (i) und Satz 3.12. Bei Überführung der Matrix A in die Matrix Ä mit dem Gauß-Verfahren werden nur Zeilen- und Spaltenvertauschungen und Addition von Vielfachen einer Zeile zu einer anderen Zeile benötigt. Nach Satz 3.12 (VI) wird die Determinante durch die Operationen vom letzten Typ nicht verändert; nach Satz 3.12 (iii) ändert jede Zeilen- oder Spaltenvertauschung das Vorzeichen der Determinanten. c7 Damit gilt det A = (-1) det A. Nach Satz 3.13 (i) ist det Ä gleich dem Produkt seiner Elemente in der Hauptdiagonalen, woraus dann der Rest der Aussagen a), b) folgt. Q Satz 3.13 (ii) liefert eine hinsichtlich des Aufwandes der Definition 3.12 weit überlegene Berechnungsmethode für Determinanten. Beispiel 73: Wir wenden den Gauß-Algorithmus an zur Bestimmung
von
1 -2 -1
3 -3
-2
2 4 -3
-6
2
5 1
2
-5 3 -2
3
-2 2 0 üi -2 -1 2 5 0 -3 1 -6 0 -1 1 0 0 0
3 3
-2 2 -2 -1 0 1/3 -19/3 0 0 4
Erstes Pivotelement ist a 11
1 0 0 0
3 3
-2 2 -2 -1 0 0 4 0 1/3 -19/3
= - 1-34 o
Nach zwei Eliminationsschritten und einer Zeilenvertauschung (SZ=1) ist hier Dreiecksform erreicht.
197
198
3 Matrizenrechnung,
2. Teil
(Der für den Computergebrauch allgemein formulierte Gauß-Algorithmus in Kapitel 2 hätte ohne Änderung der Matrix hier noch zwei Eliminationsschritte ausgeführt) .
|
Satz 3.13 (ii) a) enthält weiter ein wichtiges theoretisches Ergebnis. Satz 3.14: Die Determinante einer n x n - Matrix A ist dann und nur dann von Null verschieden, wenn A den "vollen Rang" besitzt, d.h. r(A) = n gilt. Wir erinnern daran, daß die Zahl p der von Null verschiedenen Diagonalelemente in A gleich dem Rang von A ist. Satz 3.14 erhält man auch direkt aus Satz 3.12 (ii) und (VI). Ist eine Spalte (Zeile)von A nämlich Linearkombination anderer Spalten (Zeilen), dann läßt sich durch Subtraktion dieser Linearkombination von der betreffenden Spalte (Zeile), also durch fortgesetzte Anwendung der den Wert der Determinante nicht verändernden Operation aus Satz 3.12(VI) eine Nullspalte (Nullzeile) erzeugen. Definition 3.13: Eine n x n - Matrix A heißt regulär (nicht singulär) , wenn r(A) = n gilt. Andernfalls heißt A singulär. Bemerkungen: Nach den bisherigen Diskusssionen sind folgende Eigenschaften einer n x n - Matrix A äquivalent: 1.
A ist regulär.
2.
Alle Spaltenvektoren und alle Zeilenvektoren von A sind jeweils linear unabhängig.
3.
det A
0
3 Matrizenrechnung,
2. Teil
4. A x = S besitzt für jede rechte Seite 2> £ IRn eine eindeutige Lösung (A x = 0 hat nur die triviale Lösung).
3.3.2
Lineare Transformationen
Sei A eine m x n - Matrix. Die Gleichung y = A x liefert für jeden Vektor x £ IRn genau einen Vektor y 6 1
. Durch A ist damit eine Transformation oder
Abbildung definiert, die den IRn abbildet in den IR™ . Man schreibt dies dann auch in der Form A: 3Rn
lRm . Wir beschränken uns hier auf quadra-
tische Matrizen A oder Transformationen A: IRn -i- IRn , die den Raum IRn
in sich abbilden,
x heißt Urbild, y heißt Bild der Transformation y = A x. Satz 3.15: Sei A eine n x n - Matrix und durch Multiplikation von x £ IRn die Abbildung A : 3Rn
IRn gemäß
y = A x erklärt. Dann ist die Abbildung linear, d.h. es gilt (i)
A(x(1)+x(2) ) = AX(1)+A5(2)
(ii)
A(ax)= aAx
für S ( 1 ) , 5 ( 2 ) E M N
für a effi, x e IRn .
Diese beiden Aussagen sind die Rechenregeln (i) und (iii) aus Satz 1.3. Man kann zeigen, daß auch umgekehrt jede Abbildung IRn -*• IRn die (i) und (ii) erfüllt, durch Matrizenmultiplikation A x mit einer geeigneten n x n - Matrix darstellbar ist.
Q
Ist von einer Abbildung IRn ->- IRn bekannt, daß sie linear ist, und kennt man die Bilder einer Basis x(1),...,x(n)
des IRn , dann kennt man die gesamte
Abbildung, auch dann, wenn die Matrix A nicht explizit vorgegeben ist. Eine Abbildung ist trivialerweise
199
3 Matrizenrechnung,
200
2. Teil
bekannt, wenn man zu jedem Urbild x E 1 das ->n Bild y angeben kann. Jedes x £ IR ist aber Linearkombination der Basisvektoren x: (i) also x = o^x ^ ^ + . . . dann für das Bild
Aus der Linearität folgt
y=Ax=A(a^ x: ( 1 ) +...+a x ( n ) ) n a ^ A x ' +. ,+anAx
'= o.y 12
+. • v
(n)
Kennt man speziell die Bilder y (i) der kanonischen + ->• dann , v (i) Basisvektoren (Einheitsvektoren) x = e., l ist auch A unmittelbar bekannt. Wegen : o a 11 1n "•"(I) 0 = TVA e i y 1 i-te Komp. 0 a m1 0 ergibt sich y(i) =
a
1i
l
2i
, der i-te Spaltenvektor von A.
Satz 3.16: (i) Eine lineare Transformation A:3Rn -+• ]Rn ist eindeutig bestimmt, wenn man die Bilder einer Basis des IRn kennt. (ii) Für die kanonische Basis der Einheitsvektoren erhält man die Spalten der Matrix A als Bilder der entsprechenden Einheitsvektoren
3 Matrizenrechnung,
2. Teil
Beispiel 74: 3 3 Von einer linearen Transformation A: IR -»- IR seien y ( 1 )
y(2) =
Bilder der Einheitsvektoren e^ =
Dann ist A die Matrix
1 2 3
die
y(3)
3 1 2
1 0 0
2 1 3
0
1 0
_J
Wir untersuchen nun die Fragen, unter welchen Bedingungen
jeder Vektor y £ IRn auch Bild eines
Vektors x £ IRn unter der linearen Transformation A ist und wann eine Umkehrabbildung existiert, die jedem y = A x auch genau das Urbild x zuordnet. Die erste Frage ist beantwortet, wenn zu jeder rechten Seite y £ IRn das Gleichungssystem A x = y eine Lösung x £ IRn hat (denn dann tritt ja umgekehrt jedes y £ IRn mindestens einmal als Bild auf) . Die zweite Frage ist beantwortet, wenn zu jeder n rechten Seite y £ IR das Gleichungssystem A x = y eine eindeutige Lösung x besitzt (dann ist jedes y £ IRn Bild genau eines x £ IRn ) . Nach unseren Kenntnissen über lineare Gleichungssysteme ist beides der Fall, wenn die Matrix A den Rang n hat, also regulär ist. Satz 3.17: Zur linearen Abbildung A: IR IR n dann eine Umkehrabbildung IRn ->• IR regulär ist, d.h. r(A) = n gilt.
existiert genau wenn die Matrix A
201
3 Matrizenrechnung,
202
2. Teil
Die Abbildung A heißt dann auch regulär. Bevor wir zeigen, wie man Umkehrabbildungen zu A: IRn •* 3Rn bestimmt, stellen wir noch fest: Satz 3.18: Durch eine reguläre lineare Abbildung A: IRn
IRn
wird eine Basis stets wieder in eine Basis abgebildet. Seien nämlich x' 1 ^, ..., x ^ und y ' ^
1
eine Basis des IRn
n
= A x< >, ..., y' '= Ax' n ' die zugehörigen Bilder.
Dann gilt ->-( 1) -»• (n) -»- (1) „-• (n) 0 = a-v +...+a ny =a.Ax +...+a nAx 1 ' J 12 1 = A t a ^ ' 1 ^ . . .+a n x' n ') wegen der Regulärität von A nur für c^x' 1 ^+...+a n x^ n ' = 5 (das homogene System besitzt nur die triviale Lösung). Wegen der .• (1; linearen Unabhängigkeit der Basisvektoren x ,. .ine! :(n) y x ' folqt a, = a, = ... = a = 0 . Daher sind auch i } ^ n + y ,...,y n linear unabhängige Vektoren des IRn und damit eine Basis des IRn .
Q
Wir bestimmen nun zu einer gegebenen regulären linearen Transformation A: IRn
IRn die Umkehr-
abbildung, die wir - wie üblich - mit A ^ bezeichnen. = A x ( 1 ) , ? ( 2 ) = A x ( 2 ) die Bilder von
Seien
x ( 1 ) , x ( 2 ) . Wegen der Linearität ist dann a, y ^ ' -»•( 2) ' (1 ) ^ +a 2 y das Bild der Linearkombination ct^ x + CL x< 2 >. Umgekehrt gehört, weil A
IRn
IRn jedem y das
Urbild x eindeutig zuordnet, zur Linearkombination a 1 y ( 1 ) + a 2 y ( 2 ) das Urbild a
x(1) +
1
haben damit für alle y* ', y^ A- 1
(o^
1
^?*
2
')
=
aiA-
x ( 2 ) . Wir
n
6 IR ; c^ , a 2 e 1
5(1>+a2A-1?(2).
E
3 Matrizenrechnung,
2. Teil
- 1
Die Umkehrabbildung A
einer regulären linearen
Abbildung ist wieder eine lineare Abbildung. Sie kann dann wieder durch Multiplikation mit einer n x n - Matrix beschrieben werden, die wir ebenfalls mit A ^ bezeichnen. A ^ heißt die zu A inverse Matrix. A ^ muß auch regulär sein (Warum? Übung). Zu gegebener regulärer ( n x n ) - Matrix A läßt sich A ^ nun leicht ausrechnen. Aus y = A x und x = A ^ y folgt y = A (A~1 y) = (A A~ 1 ) y.
(1 )
Die letzte Gleichung gilt wegen Satz 1.3 (V). Jeder Vektor y wird durch Multiplikation mit der Matrix -1
(AA
) unverändert belassen. Die einzige n x n - Matrix,
die von links mit jedem Vektor des IRn multipliziert, diesen stets unverändert läßt, die als Abbildung IRn •*• IRn also die Identität beschreibt, ist die ( n x n ) - Einheitsmatrix I n : Y=I n Y für alle y £ IRn . Damit gilt
AA~ 1 = I n
(2)
Satz 3.19: Durch Multiplikation y = A x von x mit einer regulären n x n - Matrix A sei eine lineare Abbildung IRn ->• IRn definiert. Dann gilt (i)
Es gibt eine Umkehr abbildung A - 1 : IRn
IRn .
Diese ist linear und durch Multiplikation -1 -»x = A y von y mit einer regulären n x n Matrix A - 1 definiert. (ii) A
ist die eindeutige Lösung der Matrizen-
gleichung A X = I .
203
204
3 Matrizenrechnung,
2. Teil
A ^ kann also mit einem Eliminationsverfahren für das Gleichungssystem A X = I A X = I
gefunden werden.
ist ein Gleichungssystem mit n rechten
Seiten e-, ..., e
(vgl. Abschnitt 2.4).
Beispiel 75:
a)
A =
2
1 -1
8 -1 -3
0
2
5
2 -3
1
,
A"
1
-5
=
1
2
, 10 -1 -4
Dies wurde in Beispiel 48, 48a aus A X = bereits berechnet. (Man führe die Probe durch ausmultiplizieren durch.) b) Die Matrix
A =
2
4
2
2
2
1
soll invertiert werden mit
2
1
2
Hilfe des Gauß-Verfahrens:
x2
X
0
4
2
1
2
2
1
2
1
2
2
4
2
O
-2
-1
0
-3
0
X
1
3
1 .RS
2. RS
3 .RS
0
0
0
1
0
0
0
1
1
0
0
-1
1
0
-1
0
1
Die Koeffizientenmatrix hat(nach Vertauschen der 2. und 3. Spalte) bereits Dreiecksform. Die j-te Spalte von A ^ gewinnen wir durch Hochrechnen mit der j-ten rechten Seite (j = 1,2,3).
3 Matrizenrechnung,
2. Teil
Man erhält
1
/ - 1/2 1/3
A"1 =
0 -1/3
0 -1
1/3
2/3 J
Wir fassen noch einige Eigenschaften von inversen Matrizen zusammen. Satz 3.20: A und B seien reguläre (nxn) - Matrizen, S sei ein gegebener Vektor des IRn . Dann gilt 1
-1
(i)
A
A = A a'
(ii)
(A"V
1
= A
(iii) ( A - B ) " = B'" 1 A"1 1 (iV) det ( A ~ 1 ) = det A 1
(V)
a"1 e
A x = b ist äquivalent zu x
A 1 (A x) = (A 1A)x folgt A 1 A = I analog zur Herleitung von A A -1 = I . Damit ist (i) n gezeigt.
Mit x = A
y
Die Umkehrabbildung zur Umkehrabbildung ist die ursprüngliche Abbildung. Damit muß die Inverse der Inversen wieder die Ausgangsmatrix A ergeben,(ii). Zum Beweis von (iii) betrachten wir (A-B) (B 1 -A 1 )
gilt
B
1
A
1
A (BB~1)A
1
= AA
1
Damit
= (AB)" 1 .
Man kann zeigen, daß det (A'B) = det A-det B gilt (Satz 3.12 (VII)). Mit det I - 1
(iV). Man kann det (A man det A kennt.
= 1 folgt daraus n
) also sofort angeben, wenn
205
3 Matrizenrechnung,
206
2. Teil
-1
Multipliziert man A x = b von links mit A folgt
A
A x = I
x = x = A
, so
b. (J
Bei Kenntnis von A ^ kann man die Lösung eines -y
->
Gleichungssystems A x = b also leicht gewinnen. Da die Bestimmung von A ^ aber aufwendiger ist als die Lösung eines Gleichungssystems, wird man zur Lösung von A x = b meist nicht A berechnen. Hat man jedoch viele Gleichungen mit gleicher Koeffizientenmatrix A und verschiedenen rechten Seiten zu lösen, so kann sich die Bestimmung von A und Anwendung der Beziehung (V) lohnen. Beispiel 76 (Input - Output - Analyse;: Eine Volkswirtschaft bestehe aus n Wirtschaftszweigen (Sektoren). Jeder dieser Sektoren verbraucht Güter oder Leistungen aus eigener Produktion oder von anderen Sektoren; er liefert Güter an andere Sektoren oder an die Endverbraucher. Wir bezeichnen mit b^j
die Lieferung (Output) des i-ten Sektors an den j-ten Sektor. Dieser ist gleich dem Input des j-ten Sektors vom i-ten Sektor;
y^
die Lieferung des i-ten Sektors an die Endverbraucher ;
x.^
den Gesamtoutput des i-ten Sektors.
Hierbei ist "Input" der Einsatz oder Verbrauch von Gütern, "Output" der Ausstoß oder Verbrauch. Die Daten beziehen sich auf eine gewisse Zeitperiode und seien alle in Geldeinheiten (GE) gegeben. Man kann sie in einer sogenannten Input - Output - Tabelle zusammenfassen:
3 Matrizenrechnung,
1
von
Sektor
207
Gesamtoutput
Endnachfrage
Sektor
Lieferung an
2. Teil
2
n 1n
X
1
2n
X
2
1
b
11
b
!2
2
b
21
b
22
n
b
n1
n2
••
b
nn
y
X
n
n
Es wird nun angenommen, daß die Input - Output Beziehungen für jeden Sektor linear sind in dem Sinn, daß für alle i und j gilt b. . = a. .-x. lU
13
(1)
3
Jeder Input b^j des Sektors j ist proportional zum Gesamtoutput x^ des Sektors j (Proportionalitätsfaktor a..). Die Faktoren a.. nennt man "technische Koeffi13 12) zienten", "Produktionskoeffizienten" oder "Verbrauchskoeffizienten". Sie seien für den betrachteten Zeitraum konstant. Die Matrix A = (a..) nennt man ^ n,n auch "Strukturmatrix" oder "Verflechtungsmatrix". Offenbar ist die Endnachfrage für einen Sektor i gleich dessen Gesamtoutput vermindert um die Summe der von Sektor i an andere Sektoren gelieferten Güter: n y. = x. - £ b. . für i = 1,...,n (2) i I ' ' =11 I: j._ Mit (1) folgt y. = x. i
i
j
n E = 1
a. . x. iD
3
für i = 1,...,n
(3)
208
3 Matrizenrechnung,
2. Teil
oder y = x - A x = (In - A) x
,
(3")
T wobei x = (x.,...,x ) der "Produktionsvektor" 1 n T und y = (y 1 ,..•,y n ) der Verbrauchsvektor ist. Mit (3') kann man die beiden folgenden Fragestellungen 1. und 2. beantworten: 1. Welche Nachfragen y sind bei Produktionen x zu erwarten?
(direkte Auswertung von (3'))
2. Wieviel muß produziert werden, um eine gegebene oder geschätzte Nachfrage zu befriedigen? (Lösung des ^
LGS
n, n
(3'))
Oft wird man das System (3') für verschiedene Verbrauchsvektoren (geschätzte Nachfragen) y lösen, so daß es sich lohnt, wegen x = (ln - A) - 1 y -1 die sogenannte "Leontieff - Inverse" (I
- A)
bestimmen (Voraussetzung: Regularität von I
zu - A).
Es gibt eine Fülle von Erweiterungen dieses einfachen Modells. Wir haben z.B. nicht berücksichtigt, daß die Sektoren etwa auch Inputs benötigen, die nicht von den betrachteten Sektoren 1,...,n geliefert werden, usw..
3 Matrizenrechnung, 2. Teil
209
Aufgaben zu Abschnitt 3.3 38) Man berechne die Determinanten von 2 1 b) I 2 a)
|3
4
3
2
-3
5
1
1
0
-2
o
,0
-5
-6
2
3
5
1
0
[2
1
d)
e)
39) Welche der Matrizen aus Aufgabe 38) besitzen eine Inverse? 40) a) Man notiere alle Permutationen von (1 , 2 , 3 , 4 ) und jeweils die Anzahl der Inversionen, b) Für die folgenden Permutationen p bestimme^man die Anzahl der Inversionen I (p) und ( - l ) 1 ' ^ . (1 , 2 , 5 , 3 , 4) , (2 , 4 , 1 , 3 , 5) , (4 , 1 , 5 , 3 , 2) , (5,3,1 ,4,2) , ( 5 , 2 , 3 , 1
,4)
* 41) a) Man zeige: Durch Vertauschen zweier Zahlen in einer Permutation von 1 , 2 , ... , n ändert sich die Anzahl der Inversionen stets um eine ungerade Zahl. b) Das Produkt a , a ^ ... a aus Matrixeleq n q-i1 q 2 n menten gehe aus dem Produkt a„ a_ ... a 2 n P2 ?n hervor durch Vertauschen von Faktoren. Man zeige, daß für p = (p. , p_ , ... , p ) und n -+T q = (q 1 , q 2 , . . . , q n ) dann ( - 1 ) 1 ( P ) = ( - 1 ) I ( q ) gilt (I(p) , I(q) : Anzahl der Inversionen von p und q) . 42) Man berechne 4
13
-21
-30
0
2
45
-61
0
0
-1
105
0
0
0
-2
, b)
-2
0
-2
0
1
5
6
1
3
1
4
3
4
2
6
-1
210
3 Matrizenrechnung,
2. Teil
43) Man prüfe, ob die folgenden Matrizen eine Inverse besitzen und gebe diese gegebenenfalls an 1
1
3\
A= - 1
4
1
2
-2
3
,
1
3
2
' 1
2
-1
B= 3
10
4
, c= - 2
1
0
l2
-5
28
, 2
-2
1
1
44) a) Gegeben sei für eine Volkswirtschaft mit den Sektoren 1 , 2 , 3 die Verflechtungsmatrix
A=
0,1
0,2
0,3\
0,2
0,1 0,2
0,2
und der
0,1
2000
10,1
Produktionsvektor x =
2000
Man bestimme
3000 die Endnachfragen y
^2 '
b) Die in Teil a) berechneten Endnachfragen sollen jeweils um 10% erhöht werden. Wie ändern sich die Produktionswerte x^ , x^ , x^ , wenn die Verflechtungsmatrix A ungeändert bleibt?
Lösungen der Aufgaben zu Abschnitt 3.3 38) a) b) d)
II |2
|3
= 1•4 - 2-3 =-2 -11
4 -1 |6 0
c)
0]
Sarrus:
2
\
3
x
5
>
t ,2
=2
0
=6
,-3
V ^ 1'Y x0' -! 2' V
0
2' 2 1 2
3 0 1
5 1 0
(2 1 lo
-3 0 -5
5 -2 -6
= 2-0-0+3-1 2+5-1-1 - 2-0-5 - 1 -1 2 - 0 - 1 - 3 = 9 = -63
3 Matrizenrechnung,
2. Teil
211
39) Die Determinanten aller Matrizen aus Aufgabe 38 sind von Null verschieden. Alle Matrizen sind regulär und besitzen eine Inverse.
(1
p 2 ,3 2 ,4
4)
Ilp) 0
3)
1
3 ,2 3 ,4
4) 2)
1 2
4 ,2 4 ,3
3)
2
2)
3
1 ,3 1 ,4
4)
1
3)
2 3
(2
3 , 1 4) 3 , 4 1) 4 , 1 3)
(2
4 ,3
4
(1 (1 (1 (1 (1 (2 (2 (2 (2
1)
P (1 (2 (4 (5 (5
2 , 5 3 , 4) 4 , 1 3 , 5) 1 , 5 3 , 2) 3 , 1 4 , 2) 2 , 3 1 , 4)
2 3
I (p)
P (3 , 1 , 2 , 4) (3 , 1 , 4 , 2) (3 , 2 , 1 , 4) (3 , 2 , 4 , 1 ) (3 , 4 , 1 , 2) (3 , 4 , 2 , 1 ) (4 , 1 , 2 , 3) (4 , 1 , 3 , 2) (4 , 2 , 1 , 3) (4 , 2 , 3 , 1 ) 4 , 3 , 1 , 2) (4 , 3 , 2 , 1 )
I (p) 2 3 3 4 4 5 3 4 4 5 5 6
(-1) 1
2
1
3
-1
6
1
7
-1
6
1
41 ) a) P.J : = (a , b , . . . , k , . . . , s , . . . , v) und P 2 : = (a , b , . . . , s , . . . , k , .. . , v) . p 2 entsteht aus p^ durch Vertauschen von k und s . Die Lage von k und s gegenüber den Zahlen links von k und rechts von s bleibt ungeändert. Angenommen, in p^ stehen m Zahlen zwischen k und s , von denen a mit k in natürlicher Anordnung stehen, während ß mit k eine Inversion bilden. Bezüglich s sollen a^ der Zahlen zwischen k und s
in natürlicher Anordnung stehen, ß^ eine In-
version bilden. Die Vertauschung führt offenbar jede dieser Inversionen in die natürliche Anord-
3 Matrizenrechnung,
212
2. Teil
nung über und umgekehrt. Ihre Anzahl war bezüglich der zwischen k und s stehenden Elemente vor der Vertauschung ß + ß^ , nachher a + a^ . Wegen a + ß =a^ +
= m gilt für die Differenz
d : = (a + a1 ) - (ß + ß 1 ) = (a + a ^ - ( m - a + m - a ^ = 2 (a + a ^ - m). d ist eine gerade Zahl. Hinzu kommt eine Inversionsveränderung bezüglich k und s . Diese ist offenbar 1 , so daß die Anzahl der Inversionen sich insgesamt um eine ungerade Zahl ändert. Man kann sich das auch, analog zum Beweis von Satz 3.12 (iii), durch schrittweise Überführung mittels Nachbarvertauschungen klarmachen. b) Jede Vertauschung der Matrixelemente bewirkt eine Vertauschung der 1. Indizes in deren Permutation und eine Vertauschung der 2. Indizes in deren Permutation, (q^ , ... , q ) geht aus (1 , 2 , ... , n) also durch ebenso viele Vertauschungen hervor wie (1 , 2 , ... , n) aus (p^ , ... , p ) .
Die gleiche Anzahl von Ver-
tauschungen die (p^ , ... , p ) in (1 , 2 , ... , n) überführt, läßt andererseits
(p^ , ... , p^) auch
aus (1 , 2 , ... , n) entstehen (man hat die Vertauschungen ja nur umgekehrt auszuführen). Die Anzahl der Inversionen der natürlichen Permutation (1 , 2 , ... , n) ist gleich Null. Nach a) ändert sich diese bei jeder Vertauschung um eine ungerade Zahl. Damit gilt: I(p) ist eine gerade Zahl und ( - l ) 1 ' ^ =1 , falls p aus (1 , 2 , ... , n) durch eine gerade Anzahl von Vertauschungen hervorging. I(p) ist eine ungerade Zahl und (-1 ) 1 ( p ) = -1 , falls p aus (1 , 2 , ... , n) durch eine ungerade Anzahl von Vertauschungen hervorging. Da (q^ , ... , q^) aus (1 ,2 , ... , n) durch die gleiche Anzahl von Vertauschungen hervorgeht wie
(Pl
p n ) , folgt ( - 1 ) I ( p ) = ( - 1 ) I ( q ) .
3 Matrizenrechnung,
2. Teil
213
42) a) Die Determinante ist, da es sich um eine Matrix in Dreiecksform handelt, gleich dem Produkt der Hauptdiagonalelemente 4'2 • (-1) • (-2) =16 b) Gauß: -2
0
Es ist eine Nullzeile
6
1
entstanden, also ist
4
3
det A = 0 .
6
-1
E U
1
0 5
3 4
1 2
-2
0
-2
0
0
H l
5
0 0
1 2
1 2
1 3
-2
0 5
-2
0 0 0
0 0
-2
0
-2
0 0 0
5 0 0
5 0 0
Man erkennt auch, daß die dritte Spalte Summe der beiden ersten Spalten ist. Die Spaltenvektoren sind linear abhängig, folglich gilt r (A) < n = 4 und det A = 0
-1 0 1
5
0 Tv^i 0 -7/s 0 1 14
/s 0
43) Für A ergibt sich nach Sarrus oder Gauß d e t A = 1 / 0 . A besitzt eine Inverse. ,-1
Berechnung von A 1 -1 2
1 4 -2
3
1
0
0
1 3
0 0
1 0
0 1
1 0
1 5
3
1 1
0
4
0 0
0
-4
-3
-2
1 0
1 0
1 5
3
1
0
0
4
1
1
0
0
0
1
1/5 -6/5 4/5 5/5
Also ist (2) x(1) - 6 3 x ( 1 ) = 5 , X (2) = -3 2 2 (2) (1) X x = -9 X = 14 , 1 damit /1 4 1
5
! \-6
-9
-11
-3
-4
4
5
(3) x =-4 x|3> =-11
214
3 Matrizenrechnung,
2. Teil r - 1
r(B) = 3 , det B = 2 ,
150
c" C
44) a) y = (I3 - A)x
also
12
1
11
- /2
r (C) = 3 , det C = 3 ,
-4
-38 35
1
-47
V2
/2
' 1
0
1
2
3
2
2
6
5
= 31
I
2000
2000
3000
-0,2
b)
-0,3'
0,9
-0,2
-0,2
0,9
mit der Lösung x^ = x 2 = 2200, x 3 (auch 10 % Erhöhu
(X1 X
2 x3J =
3300
wegen des linearen Zusammen-
hangs zwischen x und y) 3.4
Eigenwerte und quadratische Formen
3.4.1. Eigenwerte und Eigenvektoren einer quadratischen Matrix Im Zusammenhang mit einer Reihe von wichtigen Fragestellungen der Wirtschaftstheorie, der Analysis, Optimierung und numerischen Mathematik spielen Eigenwerte quadratischer Matrizen eine wesentliche Rolle. Definition 3.14: Sei A eine quadratische nxn-Matrix. Ein Vektor x e®
, der nicht Nullvektor ist, heißt Eigenvektor
von A , falls es eine Zahl X gibt mit A x = Xx , A heißt dann der zum Eigenvektor x gehörige Eigenwert. x ist ein Eigenvektor, A ist Eigenwert von A genau dann, wenn x nichttriviale Lösung des homogenen
3 Matrizenrechnung,
2. Teil
LGS
(A - AI )x = 5 ist (x muß nach Definition vern,n n schieden von Null sein). Nichttriviale Lösungen gibt
es genau dann, wenn d e t ( A - A I n ) =0 ist. Satz 3.20: A ist genau dann Eigenwert von A , wenn det(A - AI ) = 0 _ n gilt. Ist A ein bestimmter Eigenwert von A , dann sind alle nichttrivialen Lösungen von (A - Ii ) x = 5 _ n Eigenvektoren von A (zum Eigenwert A). Bemerkung: Wie wir wissen, bilden für r ( A - A I ) = p die Lösungen des homogenen Gleichungssystems einen
(n-p)-dimen-
n
sionalen linearen Teilraum des 3R . Mit x ist damit in jedem Fall mindestens auch ax für alle a £ IR , a i- 0 , Eigenvektor
(für p =n - 1) .
'11
P A (A) := det(A - AI N )
*21
12
a22-A
n1
1n 2n a nn
A
ist ein Polynom n-ten Grades in A . Es heißt charakteristisches Polynom von A . Die Gleichung
(A) = 0
heißt charakteristische Gleichung von A . Die Eigenwerte Ä sind die Werte der Variablen A£ 1R , für die P Ä (A) = 0 gilt (die "Nullstellen" von p (A)). Nach einem bekannten Satz über Polynome gibt es genau n Eigenwerte. Dabei werden sogenannte Mehrfachnullstellen ihrer Vielfachheit entsprechend oft gezählt. Es kann auch komplexe Zahlen als Eigenwerte geben. Beispiel 77: a) A =
1 -1,5
-4
. Charakteristische Gleichung ist
215
216
3 Matrizenrechnung,
1 - X 0 = _.j 5
2. Teil
-4 1 2 - X
=
^
2
- 3 X - 4 mit den beiden Eigen-
werten X^ =4 , X 2 = - 1 • Die Eigenvektoren zu X^ =4 sind nichttriviale Lösungen von (A - X^I^Jx = Ö , also -3x 1
-
4X 2 = O
-1 ,5x1 - 2x 2 = O . 4 Die Lösung ist x 2 £ ÜR beliebig, x^ = ~j x 2'
so
Eigenvektoren zu ^ = 4 darstellbar sind als (-34) m i t
"l *
Die Eigenvektoren zu X^ = -1 ergeben sich aus (A - X 2 l 2 )x = 6 , also 2x1 - 4X 2 = 0 1 , 5x1 + 3X 2 = 0 . Die Eigenvektoren zum Eigenwert X ? = -1 sind darstellbar als
5(2> =
a
2
( ^ I mit
(?)
a2 f 0 .
b) A =
l (9S
"Co )
0 = det(A - Xi 2 ) =
•
II
= X 2 + 36 mit
:
X ^ = 6i , X 2 = -6i (Komplexe Eigenwerte, i :=
/-T) ,
Eigenvektoren zu X^ = 6i aus -6i x^ - 4x 2
=0
zu x
9x1 - 6i x 2 = 0
1)
= «1
( -3i )
Eigenvektoren zu X 2 = -6i aus 6i
X1
" 4x 2 = 0
_(2) zu x ^ ' = a 2
9x1 + 6i x 2 = 0 C)
A =
r 0
[o
0 1
8
0
-3
2
, a 2 ji 0.
3 Matrizenrechnung,
1 -A
0
8
0
1- X
2
0
0
0 = det(A - XI 3 )
2. Teil
• (1 -A)
(3 + A) ;
-3 - A
A1 =1 , A 2 = 1 , A 3 = - 3 Eigenvektoren zum zweifachen Eigenwert A =
= 1:
0x1 + 0x 2 + 8x 3 = 0 0x1 + 0x 2 + 2X 3 = 0
mit der Lösung
0x1 + 0x 2 + -4X 3 = 0 x 3 = 0 ; x^ , x 2 frei wählbar. Wählen wir einmal x^ = 1 , x 2 = 0 , dann x^ = 0 , x 2 = 1 , so erhalten wir zwei linear unabhängige Eigenvektoren; : (1 )
(2) _
Diese bilden eine Basis der Lösungsmenge. Jeder Eigenvektor zum zweifachen Eigenwert 1 hat die Form 1
0
X = a.j 0
+ 01
2
0
1
, a 2 ) i (0 , 0) .
0
Eigenvektor zu A 3 =-3 4x
+ 0x 2 + 8x 3 = 0
0x1 + 4x 2 + 2X 3 = 0
liefert
0x 2 + 0x 3 + 0x 3 = 0 4 a
3
1
, « 3 ? 0 beliebig.
217
|
1-2
3.4.2 Eigenwerte und Eigenvektoren symmetrischer Matrizen Bei Matrizen in Dreiecksform lassen sich Determinanten und damit auch Eigenwerte direkt ablesen. Beson-
218
3 Matrizenrechnung, 2. Teil
ders einfach werden Eigenwert- und Eigenvektorbestimmung bei Diagonalmatrizen. Beispiel 78: /
/ d0' A =
,A
d
0
r
x
d 2 -A
AI = n
\o
V
d -A n
det(A - AI ) = (d1 - A) (d2 " A) Die EicrenA) n werte sind A d. (i = 1 , . . . , n) , die zugehörigen Eigenvektoren x:_ 0 , so daß A ^ und A2 reell sind.
Q
Bemerkung: Zu einem reellen Eigenwert gehören auch Eigenvektoren mit reellen Komponenten, da (A - AI)x = 5 dann nach den Rechenoperationen des Gauß-Algorithmus, die nicht aus der Menge der reellen Zahlen herausführen, nur reelle Lösungen besitzt. Beispiel 79: -1 A =
-17
-17
-4
-1
4
4
2
-4
0 =
. Die Eigenwerte ergeben sich aus
(-1 - A)
-17
-4
-17
(-1 - A)
4
-4
4
= -A
+ 324A zu A 1 =0,A 2 =18,A 3 =-1I
(2 - X)
Als zugehörige Eigenvektoren findet man zu A = 0 : zu A 2 = 1'
x(1 * = (2)
(-1 , 1, -4) T , c^ G 1R ,01., a 2 (-2 , 2 , 1 )
zu A^ =-18: x ( 3 ) = ct3(1 ,1 ,0) T Die Vektoren x'^'
, ct2 £ IR ,a2
f
0 ; 0 ;
,a3e]R,a3^0 .
, x' 3 ' aus Beispiel 79 sind
paarweise orthogonal, d.h. x ( 1 , T $ ( 2 ) = 2 ( 1 ) T £ ( 3 ) = 5 ( 2 ) T ^ 3 ' = 0 , wie man leicht nachprüft. Da man weiß, daß mit x'"^ (i) stets auch a^x für a ^ ü Eigenvektor ist, verzichtet man häufig auf die Angabe der a^ und "normiert" die Eigenvektoren so, daß ihre Längen (Beträge) gleich eins sind. Dies wird durch a. 1 = /Vf->-(i) Ix j, erreicht. Wir erinnern, daß der Betrag eines Vektors x = (x., , ... , x n >T
3 Matrizenrechnung,
2. Teil
221
2
sich als | x |= y= 2 + ( x 2 ) 2 + . . . + ( x n ) ^ V ? 7 ergibt. Wählt man normierte, orthogonale Vektoren als Spaltenvektoren einer Matrix X, dann gilt T X X = In Nun ist aber die Inverse X- 1 gerade durch X - 1 X = I n erklärt, so daß XT =X -1 gelten muß. Definition 3.15: k Vektoren x'^' , ... , x ' ^ ¿es bilden ein Orthonormal system,falls sie paarweise orthogonal und normiert sind zum Betrag eins, d. h. wenn gilt x (i)T x (j) =
f° fÜr ^ I1 für i = j
Eine n x n-Matrix X , deren Spaltenvektoren ein Orthonormalsystem bilden, heißt Orthogonalmatrix. Beispiel 80: a) Die Eigenvektoren in Beispiel 79 sind paarweise orthogonal. Wegen | (-1 , 1 ,-4 ) T | = ~\/ (-1)2 + 1 2 + 42* = V^TiT , | (-2 , 2 , 1 ) T | = 3 , |(1 , 1 , 0)T| = V T ist die Matrix
V — X =
X=
>3 cost
V \ V?
Xt?
\ b)
-h
eine Orthogonalmatrix
0
sint
, ist für alle t e IR sint cost eine Orthogonalmatrix. Für die Spaltenvektoren cost I -sint (2) :(2) +(2) ,-(2) =x - (x y y(2)
= ¿ ( 1 , 1 ,1) T ; Z
( 1 )
) Z
=
( 1
, - 2 , 1 ) 7
=0 T ->(2) _ 1 = (1 , -2 , I T , z (1 , - 2 , 1 ) ~7~6
?(3)=j(3)_
(5(3)^(1)^(1) _ (¿(3)^(2)^(2)
= (1 , 2 , 3)T -^(1 ,1 , 1)T -£6(1 , -2 , 1)T = (-1 , 0 , 1)T /i T -(3) _ 1 Z "72 (-1 , 0 , 1 )
z
=1
7(2)_ 1 '2 ~7l
1 - 2
'
z5
(3)
_ 1
1
-1 0 1
bilden ein Orthonormalsystem. Beispiel 82: a) 1 1 A= 1 5 1 3
3 1
. Die charakteristische
1
Gleichung lautet
1
3
1
5-A
1
3
1
1 -X
= -A 3 +7A 2 -36 = O
Sie hat, wie man leicht nachprüft, die Nullstellen Diese sind die Eigenwerte von A . Lösen des homogenen LGS 3 3 (A- AI.J)x=5 nachein- 2 , \ 2 = 3 , X ^ = 6 .
226
3 Matrizenrechnung,
2. Teil
liefert nach Normierung
ander für A = A ^ , A^ ,
; (2)
i ( 1 ) - 1 (-1 , 0 , 1 ) die Eigenvektoren x "72
_ 1
"73 ( 1 , - 1 , 1 )
(3)1 T und x = "7g (1 , 2 , 1 ) . Da alle Eigenwerte verschieden sind, bilden nach dem Beweis von Satz 3.24 (i) diese Eigenvektoren bereits ein Orthonormalsystem. Mit -V,
X=
V
2
0 v
Ve\
3
-V/5 1,
/
folgt
' re
2
"'rej -2
0
o'
0
3
0
o
0
6
AX
4 b) Die Matrix
0
hat die
2 Eigenwerte A^ = - 2 , A 2 = A3 = 6. Für A ^ =-2 erhält man den normierten Eigenvektor x(i) = ; 2 d
, o , - 1 )T.
Für A 2 = A^ = 6 lautet das homogene LGS^
3
(A - 6I 3 )x = (5
zur Bestimmung der Eigenvektoren "
4 x
1
+
0 x
2
4x 3 = 0
0x1 + 0x 2 + 0x 3 = 0 4x^ + 0x 2 - 4x 3 = 0 Dies reduziert sich auf eine Gleichung x„
1
x3
=0
Nach der Methode aus dem Beweis von Satz 3.9 (vgl. auch Beispiel 67) kann man daraus zwei Basisvektoren des zweidimensionalen Lösungsraums konstruieren. Mit x,
' XN
3
, N = (0 , -1) folgt
3 Matrizenrechnung,
= (o,i)|J| = (o)
S/1
S(1)
und
0 1 0
2. Teil
. ^ ^ ( ( K n l f l - d )
, É(2)
Diese Vektoren sind schon orthogonal. Normieren liefert (1)
(2)
: (3 )
(1 )
È-. T Tx Bx = (x Bx) = x B x
oder
x Bx = ^ (x Bx + x B x) = x
(
^
)x
x Ax mit symmetrischer Matrix A Beispiel 83: 2
2
a) Q = (x1 ) + 5 (x2)
=
ß jP —=
2
+ (x3) + 2x1 x 2 + 6x1 x 3 + 2x2 x 3
•+T -+• . -»• x Ax mit x =
, A
i 3 (Man hat die Koeffizienten der "gemischten" Ausdrücke stets symmetrisch zu formulieren bei Bildung der Matrix A , also 2x^ x 2 = x.j x 2 + x 2 x^ , 6x^ x^ = 3x^ x^ + 3x^ x^ etc. ) b) Q = 2 (x1 ) 2 + 6 (x2) 2 + 2 (x3) 2 + 8x1 x 3 = x Ax II
0 oder Q £ 0 oder Q < 0 für alle x 6 l " , Definition
x i5 .
3.17:
Eine quadratische Form Q = x Ax heißt positiv definit (positiv semideiinit), wenn für alle x / 5 gilt ->-T x Ax > 0
->-T (x Äx >01
.
-vT ->Eine quadratische Form Q = x Ax heißt negativ
definit
(negativ semideiinit) , wenn für alle x / 3 gilt -»-T ->• x Ax < 0
->-T (x Ax < 0 ) .
In allen anderen Fällen heißt Q
indefinit.
Mit Hilfe der im vorigen Abschnitt Diagonalisierung
diskutierten
symmetrischer Matrizen läßt sich
das Vorzeichen quadratischer Formen im Sinne der Definition 3.17
feststellen.
Sei X die Orthogonalmatrix, deren Spalten die orthonormierten Eigenvektoren von A sind. Dann gilt X T AX = A mit der Diagonalmatrix
A der Eigenwerte. _>. t->-1 •*
Führt man die lineare Abbildung y = X x = X
x aus,
die jeden Vektor x der Variablen x^ , ... , x Vektor y der Variablen Y^ » ••• ' Y n
in einem
transformiert,
dann gilt x = Xy und die quadratische Form -+T T -+ -+T T -+T •+ Q = x Ax = (Xy) AXy = y X AXy = y A y wird JZU einem Ausdruck in y^ , ... , y Quadrate der Variablen enthält, n _ Q = l X (y . i=1
der nur noch
ausgeschrieben:
Aus dieser Form kann man das Vorzeichen aber bestimmen. Q ^ O
für alle
IR gilt genau, wenn alle
0 sind; Q(ij0 für alle y £ E alle A. . < . 0 sind. 1 (-)
leicht
gilt genau, wenn
229
230
3 Matrizenrechnung,
2. Teil
Satz 3.25: a) Mit Hilfe der Transformation y = X T x , wobei X die Orthogonalmatrix ist, deren Spalten die Eigenvektoren von A sind, transformiert sich die quadratische -+T -+ Form x Ax auf y
A y = l A (y ) i=1
mit den Eigenwerten A^ , ... / A
von A .
-»•T b) Die quadratische Form Q = x Ax ist positiv definit (positiv semidefinit), wenn alle Eigenwerte der Matrix A positiv (nichtnegativ) sind. Q ist negativ definit (negativ semidefinit), wenn alle Eigenwerte der Matrix A negativ (nicht positiv) sind. Q ist indefinit, wenn A sowohl positive als auch negative Eigenwerte hat. Beispiel 84: Eigenwerte und Eigenvektoren der zu den in Beispiel 83a) b) betrachteten quadratischen Formen gehörenden Matrizen A wurden in Beispiel 82 bereits bestimmt. a) Zur quadratischen Form aus Beispiel 83a) gehört die Transformation y = X x mit der Matrix X aus Beispiel 82a), ausgeschrieben y1 = J / / - 2 x 1
- 0x 2
+V
y2 = V / - 3 x 1
-1//-3x2
+V3x3
y3
= 1/
/6 X 1
+2/
/6X2
+1/
2
x
3
/6x3
Q = -2(v^) 2 + 3 (y2) 2 + 6 (y3) 3 . Wegen ^ = - 2 , ^ = 3 , A^ = 6 ist Q indefinit. b) Zur quadratischen Form aus Beispiel 83b) gehört die entsprechende Transformation mit der Matrix X aus Beispiel 82b), ausgeschrieben y1=V/-2x1 y 2 =Q •
Xl
+
+ o-x 2
-
V
1 -x 2
+
O . x3
2
x
3
3 Matrizenrechnung,
1/
/2' X 1
2
+
°* x 2
2
= - 2 (y.| ) + 6 (y2)
+
1/
2
/2" X 3
+ 6(y3>
ist indefinit.
2. Teil
231
I
[
Aufgaben zu Abschnitt 3.4 2 2 45.) Gegeben sei die quadratische Form Q = (x^) +(x2> +4x^x 2 ->T ->• a) Man schreibe Q in der Form Q = x Ax mit symmetrischer Matrix A . b) Man bestimme die Eigenwerte von A und eine Orthogonalmatrix, deren Spalten orthonormale Eigenvektoren von A sind. c) Man transformiere Q auf eine Summe von Quadraten . d) Ist Q positiv definit, negativ definit, indefinit? :(3)
:(2)
46.) Durch x ( 1 ) eine Basis des IR
ist
gegeben. Mit Hilfe des
Schmidtschen Orthonormalisierungsverfahrens
bil-
de man hieraus ein Orthonormalsystem. 47.) Man zeige: Eine lineare Transformation A : IRn
3Rn
führt Vektoren über in Vektoren gleicher Länge genau dann, wenn A eine Orthogonalmatrix ist.
Lösungen zu den Aufgaben zu Abschnitt 3.4 45. )
1—A 2 = (1 - A ) 2 1-A
a)b): A =
für A1
2
= 1 ^ / 4 , also A1 = 3 , ; ^
-4 = A
-2A-3=0
-1
Damit ist jetzt schon festgestellt, daß Q indefinit ist und transformiert als Summe von Quadraten lautet Q = 3 ( Y l ) 2 - (y 2 ) 2
.
232
3 Matrizenrechnung,
2. Teil
Eigenvektoren: -2x^+2x2 = 0 Für A1 = 3 :
2x^2x2 = O
X1
- x 2 =0
Ohne große Rechnung folgt die allgemeine Lösung x^ = Xj = t 6 ]R , woraus nach Normalisieren -+(1 )= x
(
,1, 1, //2 ' '
.T
, n . folgt-
2x1 + 2x 2 = 0
Für A^ = -1 :
2x1 + 2x 2 = 0
X1 +
x 2 =0
mit der allgemeinen Lösung x^ = - x 2 = t £ffi und nach Normalisieren ? ( 2 ) - i1/ -V lT x ( " '/2 ' /2 Da alle Eigenwerte verschieden sind, ist die Orthogonalmatrix X gegeben durch v,. /2 /2 X= . X ist symmetrisch, so 1.
1 ,
' /2 daß X = X
T
=X
-1
"
'/2
gilt. h
y = X x wird zu y
/
/2X^
+
1
7
/2x2
1, x _ 1, ' /2 1 ' /2 x 2
c) Q = 3 (y1 ) 2 - (y2)2. d) Q ist indefinit. 46 . )
(1 )
y(1) =5(1)
1
7T4
y ( 2 ) =x ( 2 > - -T->T b) Es gelte y y = x A A x = x x . Dann folgt A A = I
233
4
Lineare Optimierung
Es wird eine Einführung gegeben in die grundlegende Methode zur Lösung linearer Optimierungsprobleme: Simplex - Algorithmus und Phase I - Phase II - Verfahren. 4.1
Der Simplex-Algorithmus
4.1.1. Definition eines linearen Optimierungsproblems In Kapitel 1 wurden bereits lineare Optimierungsprobleme definiert und einige Beispiele betrachtet (vgl. Definition 1.11, Beispiel 32). Wir erinnern und ergänzen: Definition 4.1 (Standardform eines linearen Optimierungsproblems LOP) . Folgende Aufgabe heißt Standardform eines linearen Optimierungsproblems
(LOP):
Gegeben sind eine m x n - Matrix A, ein m x 1 b, ein n x 1
- Vektor
- Vektor c.
Gesucht sind Vektoren x £ IRn , welche die Ungleichungen A x
b, x
6
erfüllen und unter allen diesen Ungleichungen genü->-T->genden Vektoren die Funktion Z = c x maximieren. Abkurzung:
max Z = c x A x S ß, x 5 6 .
Die Funktion Z = c x heißt Zielfunktion. Die Ungleichungen A x £ b, x ü 0 heißen Nebenbedingungen oder Restriktionen. Die speziellen Nebenbedingungen x Ä 0
nennt man Nichtnegativitätsbedingungen.
Die durch die Nebenbedingungen definierte Menge M =
{x
e IR
|A
X
£ b,
X
£ 0}
heißt zulässige Menge. Vektoren aus M heißen zulässige Vektoren oder zulässige Lösungen. Zulässige Lösungen, in denen die Zielfunktion Z ihr Maximum
über M an-
nimmt, nennt man optimale Vektoren oder Optimallösungen.
4 Lineare Optimierung
Beispiel 85: Wir gehen aus von den Daten des Beispiels 38. Das dort formulierte Kapazitätsauslastungsproblem x 1 + 4X 2 = 36 2x1 + 3x 2 = 3 2 3x1 +
x1 £ 0, x 2 ¿0
x 2 = 34
besitzt keine Lösung (Übung). Zusätzlich seien die Gewinnspannen pro produzierter Mengeneinheit von P^ , P 2 mit c^ = 12, c 2 = 30 gegeben. Fragt man nach den pro Woche zu fertigenden ME von P^ und P 2 , die - unter Einhaltung der verfügbaren Maschinenzeiten - die Gewinnspanne pro Woche möglichst groß werden lassen - so entsteht das LOP max Z = 12x^ + 30x2 x 1 + 4x2 S 36 2x1 + 3x2 ä 32 3x1 + x 2 S 34
x ^ 0, x 2 ä 0 |
Beispiel 86: a) Wir gehen aus von den Daten des Beispiels 2. Zusätzlich seien für die vier Produktionsfaktoren Anbaufläche, Arbeitskräfte, Naturdünger, Kunstdünger die zur Verfügung stehenden ME mit b^ = 250, b 2 = 1590, b 3 = 300, b 4 = 240 gegeben, für die fünf Kulturen K^, ..., Kg die Erträge (in Geldeinheiten) pro Tonne Saatgut mit c^ = 40, c 2 = 60, c 3 = 50, c 4 = 60, c 5 = 80. Wieviel Tonnen x^ hat man von der i-ten Kultur (i = 1,...,5) anzubauen, so daß - unter Berücksichtigung der höchstens einsetzbaren Produktionsmittel der Gesamtertrag maximal wird?
235
236
4 Lineare
Optimierung
Das zugehörige LOP lautet max Z = 40x1 + 60x2 + 50x3 + 60x4 + 80x5 2x1 +
x2 +
4x3 +
x
4 +
3x
5
-
250
4x1 + 8x 2 + 1ox3 + 10x4 + 6X 5 S 1590 6x. 1
+ 3x 2 +
2x. + 4xc S 4 D
300
+ 3X 5 £
240
2X3
b) Dem Problem aus a) läßt sich eine zweite Aufgabe zuordnen: Ein zweiter Unternehmer möchte vom ersten Unternehmer die Anbaufläche pachten, die Arbeitskräfte leihen, Natur- und Kunstdünger kaufen. Der erste Unternehmer ist einverstanden unter der Bedingung, daß er dabei mindestens soviel erzielt, als wenn er sein Land selbst mit irgendeiner der 5 Kulturen bebaut . Wieviel hat der zweite Unternehmer dem ersten pro Einheit des ihm zur Verfügung gestellten Produktionsmittels zu zahlen, damit seine Gesamtkosten möglichst gering werden? u^ sei der Preis Pro ME des i-ten Mittels (i=1,...,4) Dann hat der zweite Unternehmer folgendes Problem zu lösen: Minimiere V: = 250u1 + 1590u2 + 300u3 + 240u4 unter den Nebenbedingungen 2u^ + 4u 2 + 6u 3
a 40
u1 + 8U 2
+ 3U4
s 60
4u1 + 10u2
+ 2u4
> 50
u^ + 10u2 + 2u3 3u^ + 6u 2 + 4u 3 + 3U4 u 1 ,u 2 ,u 3 ,u 4 S 0
^ 60 ä 80 |
4 Lineare
Optimierung
Bemerkung (Ausblick): Der in Beispiel 86 aufgetretene Sachverhalt, daß man einem LOP ein geeignetes zweites Problem zur Seite stellen kann, gilt ganz allgemein. Lineare Optimierungsprobleme treten stets paarweise auf. Zum L0P
max Z = A x ä b x £ 0
gehört dabei das sogenannte duale Problem mm V = b u T-" A u £ c u £ 0 mit dem Variablenvektor u e IRm . Man kann zeigen, daß die Existenz einer Optimallösung des einen Problems stets auch die Existenz einer Optimallösung des anderen nach sich zieht. Weiter erweisen sich die Werte der beiden Zielfunktionen in den Optimallösungen als gleich, und man kann aus der Lösung des einen Problems stets auch die des anderen ablesen. Darüber hinaus lassen sich beide Probleme und ihre Optimallösungen in wirtschaftswissenschaftlich interessanter Weise interpretieren. Wir müssen im Rahmen des einführenden Charakters dieses Kapitels auf die Darstellung der zugehörigen "Dualitätstheorie" verzichten, empfehlen den an linearer Optimierung Interessierten aber dringend weiterführendes Literaturstudium (einige Texte sind im Literaturverzeichnis angegeben).
237
238
4 Lineare
Optimierung
Beispiel 87: a) Zur Fütterung einer Tiersorte stehen zwei (auch gemischt verfütterbare) Futtermittel F^, F 2 zur Verfügung. Sie enthalten pro ME die in der folgenden Tabelle angegebenen ME der drei Nährstoffe N^N,,,]^: F N N
1
3
1 2
N3
F
2
1
4
3
1
3
Pro Tag werden mindestens benötigt 8 ME von N^, 19 ME von N 2 , 7 ME von N.J. Die Kosten pro ME von F^ und F 2 seien 25 und 5o GE. Gesucht ist ein kostengünstigstes Ernährungsprogramm. Mit x^: Anzahl der pro Tag von F^ verfütterten ME (i = 1,2) ergibt sich die Aufgabe Minimiere Z = 25x^ + 50x2 3x1 +
x2
4x1 + 3x2 x^ + 3x2
£ 8 S 19
x1 ,x2 S; 0
£ 7
b) Müssen in einem Diätplan mindestens 8 ME von N^, mindestens 19 aber höchstens 25 ME von N 2 , genau 7 ME von N 3 zugeführt werden, dann lautet das Problem Minimiere Z = 25x^ + 50x2 3x1 +
x 2 ¡s 8
4x1 + 3x2 ä 19
x.j,x2 ä 0
4x1 + 3x 2 ^ 25 x, + 3x0 = 7
|
4 Lineare
Optimierung
Die vorangegangenen Beispiele haben gezeigt, daß ein Optimierungsproblem, in dem nur lineare Funktionen auftreten (ein lineares Optimierungsproblem),, häufig nicht unmittelbar in der Standardform aus Definition 4.1 vorliegt. Es kann aber stets in diese Standardform umgeschrieben werden. Geht es darum, eine Zielfunktion
Z(x) zu minimieren,
so kann dies wegen min Z (x) = - max (-Z(x)) x e M
x e M
auf die Maximierung von (-Z(x)) zurückgeführt werden. Liegt - etwa bei der Forderung nach einer Mindestproduktion - eine Ungleichung der Form a.,x..+a._x,, + . . . + a . x äb. i1 1 i2 2 in n l
(1)
vor, dann läßt sich diese offenbar durch Multiplikation mit (-1) auf unsere Standardbedingung der (ö) - Form zurückführen: -a... x- - a. 0 x_ - ... - a. i1 1 i2 2 m
x^ ä -b. . n i
(2)
Schließlich ist eine Gleichung a.- x- + a._ x n + ... + a. x = b. i1 1 i2 2 in n i gleichbedeutend mit zwei Ungleichungen (1) und (2). Wir bemerken aber jetzt schon, daß man in der Praxis Gleichungen nicht in zwei Ungleichungen aufspaltet, sondern als Gleichungen stehen läßt. Wird (was selten vorkommt) von einer Variablen x^ verlangt x. S O , so führt man die Variable x.:= -x. : : 3 ein mit der Nichtnegativitätsbedingung x^ 5 0.
239
240
4 Lineare Optimierung
Besteht schließlich im ursprünglichen Problem
für
eine Variable x. keine Vorzeichenbeschränkung, dann 3
^
ersetzt man x. durch x. = x. - x. mit den beiden 3
Ä
3
Ä
3
3
Variablen x^ i 0, x^. Ä O (jede reelle Zahl ist als Differenz zweier nichtnegativer Zahlen darstellbar). 4.1.2 Normalform eines linearen Optimierungsproblems Zur mathematischen Behandlung linearer Optimierungsaufgaben erweist es sich als nützlich, das LOP in eine äquivalente Form überzuführen, die nur Gleichungen enthält. Wir nehmen dazu an, daß für alle Variablen x^ die Nichtnegativitätsbedingung x^ S 0 verlangt sei und auftretende Ungleichungen alle vom (ä) - Typ sind. Dies läßt sich nach den Bemerkungen des vorigen Abschnitts stets erreichen. Auftretende Gleichungen im Originalproblem lassen wir unverändert. Das Problem liege also vor in der Form max Z =
c
x
^
+ c2 x 2
i
+
• • '+
c
n
x
n
+ .. . + a.
x S b. in n l + + ... + a. x = b. a (1) • ai1 X 1 i 2 X2 in n l x.S 0 . . . ,n) 1, = (j r a
+
i1 X 1
a
X
i2
2
(i=1,...,r)
In jeder der Ungleichungen führen wir eine sogenannx
te Schlupfvariable (2)
x
n+i :
= b
i "
(a
n+^=
i1
x
0 e
i n gemäß
1 + a i2 x 2 + --" + a in x n )
(i=1
r)
Damit läßt sich (1) schreiben als max Z = c 1 x . 1 1
+ c_ x„ + ... + c x 2 2 n n
l
i1 x 1 + a. 2 x 2 + ... + a. n x n + x n + . = b. (i=1,..
(3) ^ a ± 1 x, + a. 2 x 2 + ... + a. n x n Xj ä 0
(j = 1 , . . . ,n+r) .
= b. (i=r+1,
4 Lineare Optimierung
Form (3) heißt Normalform eines linearen Optimierungsproblems. Die Formen (1) und (3) sind nun offenbar äquivalent in folgendem Sinne: Ist (x lf ...,x n )
zulässig für (1), dann ist mit x ,. nach (2) für (x1 , ,x ' n+r n' x n+1'• n+i i = 1,...,r zulässig für (3). Ist (x^ , ,x n' x n+1 ...,x n+r ) zulässig für (3), dann ist ) zulässig für (1). Da die Schlupfvariablen in der Zielfunktion nicht auftreten, gilt das Entsprechende, wenn wir in diesen beiden Sätzen zulässig durch optimal ersetzen. Beispiel 88; a) Die Normalform für die Aufgabe aus Beispiel 85 lautet max Z = 12x1 + 30x2 X
+
1
4x
2x^ + 3X2 3x^ + X
= 36
+
2
+ x.
x2
= 32
+ x 5 = 34
1' X 2' X 3' X 4' X 5 ~ ^
b) Die Normalform der Aufgabe aus Beispiel 87 b) ist - Z) = - 25x 1 - 50X 2
3x-
-
4x
-
1
x2 + 3X 2
x3
= - 8 + x4
4x1 + 3x 2 X
x
1 '
x
+ x 5 = 25
1 + 3X 2
2 '
X
3
= - 19
= 7 È O
241
242
4 Lineare
Optimierung
4.1.3 Der Simplexalgorithmus In diesem Abschnitt betrachten wir ausschließlich Standardprobleme des Typs -»•T-»max c x A x S S x ä 6
(1)
mit £ S 5. Fassen wir die m Schlupfvariablen zu einem Vektor x D zusammen, dann lautet die Normalform von (1) D
->-T->max Z=c x ^ t ^ 5B : s x S 0, xrDs 5 0
(2)
Probleme des Typs (1) mit S treten sehr oft in den Anwendungen auf. Ein allgemeines Modell, das auf (1) führt, ist etwa das folgende: Ein Entscheidungsträger kann n Aktivitäten ausführen lassen (etwa die Produktion der Produkte ). Die Werte der Variablen geben das Niveau der Aktivitäten 1,...,n an (etwa produzierte ME von P^,...,Pn). Zur Ausführung der Aktivitäten werden m sogenannte Ressourcen benötigt (etwa Produktionsmittel, Maschinen, Arbeitskräfte, Rohstoffe). Die rechten Seiten b^ (i=1,...,m) geben die verfügbaren Ressourcenmengen an (etwa Maschinenkapazitäten, Arbeitsstunden, vorhandene Rohstoffmengen). Die Elemente a^j der Matrix A geben die technologische Umsetzung der Ressourcen in die Aktivitäten wieder, a^j beschreibt, in welchem Umfang Ressource Nr. i in die Aktivität Nr. j eingeht: a ^ ist die Anzahl der ME der Ressource i, die man benötigt, wenn das Niveau der Aktivität j um eine Einheit erhöht werden soll. A wird daher häufig Technologiematrix genannt.
4 Lineare Optimierung
Die Zielfunktionskoeffizienten c„,....c beschrein 1 ben Gewinn oder Umsatz pro Niveaueinheit der Aktivität 1,...,n. Die Variablen x,,...,x heißen im Geqensatz zu den I n Schlupfvariablen oft Strukturvariable. Zu jedem Aktivitätenniveau
(Wert des Strukturvariablenvektors
x) geben die Schlupfvariablen die dabei nicht ausgenutzten Ressourcenmengen an. Für die Erläuterungen des folgenden Lösungsverfahrens ist es nun nützlich, eine Umbenennung einzufuhren. Wir setzen c N : = c , x N : = x, N: = A. Damit wird (2) zu ->• T->max Z = c1T x.T N N N
*N
+
V ß
x N £ o,
=
S
, x ß £ 0) .
Wir betrachten zunächst nur die einfachste dieser zulässigen Lösungen, nämlich die spezielle Lösung
xß = b
,
xN = S
(4)
mit dem zugehörigen Wert der Zielfunktion Z = Z : = c x = c„0 = 0 . o N N N
v(4')
(4) und (4') sind dabei unmittelbar ablesbar aus der kanonischen Form des Gleichungssystems und der speziellen Gestalt der Zielfunktion (x_ kommt dort nicht vor). Wegen der Voraussetzung b £ 0 ist die Lösung (4) zulässig. Sie ist selbstverständlich i. allg. noch nicht eine der gesuchten optimalen Lösungen. Im Sinne des oben beschriebenen Modells entspricht sie ja dem Nichtstun: alle Aktivitäten auf Nullniveau, kein Gewinn oder Umsatz, Ressourcen unbenutzt. Die Attraktivität der zulässigen Lösung (4) liegt zunächst nur in ihrer leichten Ablesbarkeit aus der kanonischen Form des Gleichujigssystems und in der leichten Ablesbarkeit des zugehörigen Zielfunktionswertes aus der speziellen Form der Zielfunktion.
4 Lineare Optimierung
Nun kann man durch einfache, uns im wesentlichen schon geläufige Umrechnungen des Problems in der Form (3)
weitere, ebenso leicht ablesbarer zu-
lässiger Lösungen gewinnen. Es wird sich zeigen, daß darunter auch eine der gesuchten Optimallösungen ist (falls eine Optimallösung existiert). Dazu wählen wir ein von Null verschiedenes Pivotelement aus der Matrix N und führen einen Pivotschritt des Gauß-Jordan-y e rfahrens aus. Sei a r g das gewählte Pivotelement, also Zeile r Pivotzeile und Spalte s Pivotspalte. Nach der Umrechnung ist x g in allen Zeilen i f r eliminiert. Die Spalte s enthält einen Einheitsvektor
(mit 1 in Zeile r).
Der zur Variablen x n + r gehörende Einheitsvektor aus I , der die 1 in der r-ten Zeile (Pivotzeile) besitzt, ist nach der Umrechnung nicht mehr Einheitsvektor. Alle anderen Einheitsvektoren aus I bleim ben unverändert (0 in Pivotzeile, vgl. Umrechnungsformeln) . Nach einem Pivotschritt des Gauß-Jordan-Verfahrens mit Pivotelement a r s hat das Gleichungssystem nach Vertauschen der Spalten s und n+r die zu (3) analoge Form N 1 x.,' + I xl = b' . N m B
( 3 ')
N 1 ist die aus N nach Umrechnung entstandene Matrix mit Ausnahme der Spalte s (Pivotspalte). Die Spalte s von N 1 ist die umgerechnete Spalte n+r der Matrix (N,I ) (die umgerechnete Spalte r von I ). I entm m m steht mit Ausnahme ihrer Spalte r nach "Umrechnung" aus der Matrix I der Form (3) . Die Spalte r der r m neuen Matrix I ist die umgerechnete Pivotspalte s. x N ' enthält die gleichen Variablen wie x N mit Ausnahme der Variablen x s , die durch x n+r , ersetzt ist.
245
246
4 Lineare
Optimierung
xJ. enthält die gleichen Variablen wie x_ mit Ausnähme der Variablen x , , die durch x ersetzt ist. n+r s b' ist die umgerechnete rechte Seite. Mit x' = b', x' = 0 ist eine neue Lösung des GleiB N chungssystems der Nebenbedingungen ablesbar. Diese ist aber nur zulässig, wenn b' ä 0 gilt. Die Auswahl des Pivotelements a r g muß also so erfolgen, daß für den umgerechneten Vektor b' der rechten Seiten wieder b' ^ O gilt (Zulässigkeitsrege1). Durch einen kleinen Trick läßt sich erreichen, daß auch der Zielfunktionswert zur neuen Lösung sofort ablesbar ist. Dazu schreibt man die Zielfunktion in (3)
in der
Form -> T-+ Z - c„ X,T = Z - C-X- - c~x., - . . . - e x + Ox , N N 1 1 2 2 n n n+1 + . . . + Ox , n+m
= z o
mit z = 0 . o Di.e Zielfunktionszeile z - c-x, - c n x n - ... - e x + Ox ,. + ... 11 2 2 n n n+1 + Ox ^ = z n+m o
(5)
kann man nun wie die Gleichungen der Nebenbedingungen behandeln. Zu z denkt man sich dabei eine zusätzliche Spalte in dem durch die Zielfunktionszeile erweiterten Gleichungssystem, deren weitere Koeffizienten alle gleich Null sind. z q = 0 ist der zur Lösung (4) gehörende Zielfunktionswert. Nach Umrechnung dieser Zielfunktionszeile mit den Rechenregeln des Gauß-Jordan-Verfahrens entsteht
4 Lineare Optimierung
z - c'x1 - c'x9 - ... Ox i i J z s +Ox
n+1
- c'x n n
+ ...+c' x +... + Ox , = z'. n+r n+r n+m o
sind die umgerechneten Zielfunktionskoeffizienten, c" ist gleich Null, c', kann von Null vers n+r schieden sein; ist die aus z q durch Umrechung entstandene rechte Seite. Alle Koeffizienten zu Variablen aus x' sind gleich Null, so daß z" der Zielfunktionswert zur Lösung xJ. ri = b , x' N = 0 ist. Definition 4.2: Ein lineares Optimierungsproblem heißt in kanonischer Form, wenn das lineare Gleichungssystem der Nebenbedingungen in kanonischer Form N xA7 + I x D = b N m B vorliegt und in der Zielfunktionszeile z -
n+m Z c .x. = z j=1 3 3
die Koeffizienten c. zu den Variablen aus x„ gleich Null sind.
3
B
Die Variablen von x_ £S heißen Basisvariable (BV), die -y Variablen von x„ Nichtbasisvariable (NBV). Die Lösung x ß = b, x N = 0 des Gleichungssystems heißt zugehörige Basislösung (BL). Die Basislösung heißt zulässige Basislösung, wenn S ä 0 gilt. Beim oben beschriebenen Gauß-Jordan-Schritt wird aus einer BL eine neue BL gewonnen. Dabei ist genau eine der alten BV zu einer neuen NBV geworden (die Variable x n + r )i genau eine der alten NBV zu einer neuen BV (die Variable x g ). Der Gauß-JordanSchritt heißt daher auch Austauschschritt.
247
248
4 Lineare
Optimierung
Wir geben einen Austauschschritt noch einmal für n = 4, m = 3) in einer passenden Tableauform an. Dabei ist die Spaltenvertauschung x g ( ) xr n+r nicht durchgeführt. BV
NBV z 1
f
X
1
X
2
X
3
"C 3
x
4
x
5
X
x
6
7
RS
0
0
0
z o
1
0
0
b
!
24
0
1
0
b
2
34
0
0
1
b3
-C1
~C 2
~C4
0
a
11
a
12
a
13
a
14
0
a
21
a
22
a
23
a
0
a
31
a
32
a
33
a
Nach Umrechnung mit Pivot-Element a2j (eingerahmt) ergibt sich die folgende Form: NBV z 1 0 0
0
X
1
-c ' a
NBV X
2
BV
NBV
x
x
3
4
0
~C2
11
a
a
21
a
22
a
23
a
23
a
31
a
32
12
0 1
0
BV X
5
0 a
14
a
24
a
23
a
34
1
NBV X
BV X
6
( -c3 ) a
23
7
RS
0
~a 1 3 0 a
23 1
0
0
_
a
23
a
23
i n
0
1
a
23
b
3
Die gesamte z-Spalte kann weggelassen werden, weil sie beim Austauschschritt nicht verändert wird und lediglich anzeigt (durch die 1), welche Zeile die Zielfunktionszeile ist.
Zielfkt.
Restrikt.
4 Lineare Optimierung
Beispiel 89: Das zur ersten kanonischen Form der Aufgabe aus Beispiel 85 gehörende Tableau ist BV
NBV X
1
x2
X
-1 2 -30
x
3
X
4
RS
5
0
0
0
0
zulässiqe BL:
1
0
0
36
X 3 =36,X 4 =32,X 5
2
0 3
0
1
0
32
X1=X2=0,
3
1
0
0
1
34
z o =0.
1
Ein Austauschschritt (ohne Spaltenvertauschung) mit Pivotelement NBV
BV
X
X
1
|4 | liefert
2
NBV X3
BV
BV
x
X
4
5
RS
-18/4
0
30/4
0
0
270
1/4 5/4 11/4
1
1/4
9
-3/4
0 1
0
0 0
5
-1/4
0
0 1
zulässige BL: X2=9,X4=5,X5=25,
25
Die Auswahl des Pivotelementes a zwei Kriterien:
ausgetauscht wurden x 2 und x^;
rs
=x3=0, z =270o geschieht nach
1. Die neue BL soll besser sein als die alte, d.h. für die Werte zo und 2' o der Zielfunktion vor und nach dem Austauschschritt soll im Sinne der hier betrachteten Maximumaufgabe z 1 > o
z q gelten.
Jede BL muß zulässig sein, d.h. aus S ä 6 muß für die rechten Seiten b' nach dem Austauschschritt auch S ' £ ( 5 folgen.
249
250
4 Lineare
Optimierung
Nach den Umrechnungsformeln für das Gauß-JordanVerfahren gilt 0 gelten muß. z' > z läßt sich für b = 0 nicht erreichen. In o o r diesem Fall bleibt der Zielfunktionswert gleich. Wir schwächen diese Forderung daher ab zu z^ > z Q für b r f 0. Dies ist wegen
ä 0 (Zulässigkeit
der alten BL) dann immer erfüllt, wenn der Zielfunktionskoeffizient der Pivotspalte (~c ) < 0 ist. (Man beachte, daß die Zahlen auf der linken Seite der Zielfunktionszeile Den größten
(-Cj) entsprechen.)
Zuwachs der Zielfunktion erhielte man,
wenn man unter allen bei Berücksichtigung der 2. Forderung noch zugelassenen Pivotzeilen r und allen Spalten s mit (-c ) < 0 die Kombination auswählte, für die c s —— b maximal würde. Da dies jedoch i.a. zu a r rs aufwendig ist, verwendet man meist die Auswahlregel I zur Auswahl der Pivotspalte s: Bestimme einen Pivotspaltenindex s, für den gilt (-C ) s
=
min (—c.) 3
(-Cj) < 0
In Worten: Suche unter allen negativen Koeffizienten der Zielfunktionszeile den kleinsten. Gibt es mehrere solcher Indizes s, dann wählt man einen davon aus, etwa den kleinsten Index. Auswahlregel I sichert Verbesserung des Zielfunktionswertes für b v 4 0. Für b v- = 0 bleibt der Zielfunk'
4 Lineare
Optimierung
tionswert nach dem Austauschschritt unverändert. Auswahlregel I legt die Variable fest, die NBV war und BV wird.
Nach den Umrechnungsformeln des Gauß-Jordan-Verfahrens qilt b ' = b , ^ r r/a
(rechte Seite der Pivot-
zeile r) und b.1 = b. - a. i
x
is
b£ — a rs
für die übrigen ^
rechten Seiten (i^r). Vorausgesetzt ist
b^ £ 0
(i=1,...,m). r ist so zu wählen, daß dann auch b GL
2 0
rs
und b. - a. i is
(6)
b — a rs
ä 0
(i=1,...,m;i^r)
(7)
gilt. (6) ist erfüllt, für Im Falle a. S O is
a
rs
>0.
ist (7) dann wegen b. ¿ 0 , — ^ l ' a
auch erfüllt. Im Falle a. > 0 ist (7) äquivalent zu ls
ä 0
rs
, b. i — ä a. is
, b
r — a rs
für alle i ^ r. Dies ist erfüllt, wenn wir dann a r s so wählen, daß der Quotient b i Quotienten — ä.
IS
^r a
der kleinste aller
ist.
Wir benötigen also nur für a. > 0 eine einschränkende is Regel. Sie ergibt sich zu
251
252
4 l.ineare
Optimierung
Auswahlregel II zur Auswahl der Pivot.zeile r: Wähle zuerst die Pivotspalte s nach Auswahlregel I. Die Pivotzeile und damit das Pivotelement a r g wähle man so aus, daß gilt
b —
a
r
min i
rs
1 1 ' a.— IS
1
(
a. >0 ( J is
In Worten: Bilde die Quotienten aus der rechten Seite b. und dem Koeffizienten der Elemente a. in i IS Zeile i und Pivotspalte s. Tue dies für alle a. > 0 IS und wähle als Pivotzeile r die mit dem darunter kleinsten dieser Quotienten. Gibt es mehrere solcher Indizes r, dann wählt man einen davon aus, etwa den kleinsten Index. Auswahlregel II legt die Variable fest, die BV war und NBV wird. Beispiel 90: In Beispiel 89 haben wir das Pivotelement schon nach diesen Regeln bestimmt: min (-12, -30) = - 30 und min (36, 32, 34) 4 3 1
=
36 4'
Wir führen ausgehend vom dort erhaltenen zweiten Tableau einen weiteren Austauschschritt durch. 18 _
—4 ist die einzige negative Zahl in der Zielfunk-
tionszeile. Damit ist s = 1; x^ wird neue BV. min i 9 A , 5 /1> Z 5 / 1 1 1J = 5 A = 4. Damit ist die L 4 4 ' 4 4 zweite Zeile Pivotzeile. Die zugehörige BV ist x 4 ; sie wird NBV.
4 Lineare Optimierung
Das dritte Tableau lautet BV
BV
NBV
NBV
X
X
X
*4
1
2
3
BV RS
0
0
24/5
18/5
0
288
0
1
2/5
0
8
1
0
0
4
0
0
" 3/5 7/5
- 1/5 4/5 -11/5
1
14
zugehörige BL: x 1 =4, X 2 =8, X 5 =14, x 3 =x 4 =O f z
= 288.
Hier ist Auswahlregel I nicht mehr anwendbar.
|
Unter Anwendung der Auswahlregeln I und II führt man solange Austauschschritte durch bis das Verfahren abbricht, weil Auswahlregel I oder II nicht mehr anwendbar ist. Wir wollen untersuchen, was das Abbrechen des Verfahrens bedeutet. Auswahlregel I ist genau dann nicht anwendbar, wenn in der vorliegenden zulässigen kanonischen Form alle Elemente (-c.) der Zielfunktionszeile größer oder gleich Null sind. Die Zielfunktion lautet in der dem Tableau zugeordneten Form . T Zo + C.. N X., N
(8)
und hat in der vorliegenden zulässigen BL wegen x.. N = O den Wert z . ° Es gilt c N S 0, weil Auswahlregel I nicht anwendbar ist. Für jede beliebige zulässige Lösung des Problems muß x N ä 0 gelten. Es folgt c^ x^ ^ 0 als Summe von Produkten aus je zwei Faktoren, von denen einer 0, der andere i 0 ist. Aus (8) folgt, daß die Zielfunktion ihr Maximum für x„NT = 0 annimmt. Durch die Festlegung von x N = 0 ist aber die Lösung der Nebenbedingungsgleichungen eindeutig festgelegt und gleich der vorliegenden BL. Diese muß daher eine der ge-
253
254
4 Lineare
Optimierung
suchten Optimallösungen sein. Stopregel I: Sind in einer zulässigen kanonischen Form des Maximumproblems alle (-Cj) a 0 (Auswahlregel I nicht anwendbar), dann ist die vorliegende zulässige Basislösung optimal. Beispiel 91: Die Basislösung aus Beispiel 90 ist die Optimallösung .
J
Ist Auswahlregel I anwendbar, aber Auswahlregel II nicht, dann gilt für die ausgesuchte Pivotspalte s a. s o IS Wählt man nun
für i = 1,...,m. x g = t > 0 beliebig und setzt die
übrigen Nichtbasisvariablen weiter gleich Null, dann lauten die Gleichungen, die die Basisvariablen x-,
D. 1
eindeutig festlegen X
B. 1
= b
i " a iS
Wegen b ± ä 0, t > 0, a.
(i = 1,...,m).
gilt x ß 6 0 (i=1,...,m), i und man erhält für alle t > 0 eine zulässige Lösung £ 0
des Optimierungsproblems. Der Zielfunktionswert zu diese*. Lösungen lautet z = z Q + c g t. Wegen c s > O (Auswahlregel I war anwendbar) kann die-¿r beliebig groß werden (für über alle Grenzen ar achsendes t > O). D.'1 j Zielfunktion ist über der zulässigen Menge nicht nach oben beschränkt; es existiert kein Maximum.
4 Lineare Optimierung
Stopregel II: Ist in
255
einer zulässigen kanonischen
Form des Maximumproblenis ein Zielfunktionskoeffizient (—c ) < 0 und gilt für alle Koeffizienten a. s IS der zugehörigen Spalte s
< 0 (i=1,...,m), dann
gibt es zulässige Lösungen, für die der Zielfunktionswert beliebig groß wird. Es existiert kein Maximum. Beispiel 92: Wir betrachten das LOP in Normalform max z = X
2x
1
X
2
1 "
+
x
2
+ x^ = 1
2x^ - x 2 +
x
4 =
^ 1 ' x 2' X 3' X 4
^
1
Mit der als z - 2x^ - x 2
=
0
geschriebenen Ziel-
funktion lautet das 1. Tableau NBV
BV
-2
-1
0
0
0
1
-1
1
0
1
-1
0
1
1
x
X
i
m
X
Auswahlregel I :min(-2,-1)=-2,
2
x
3
4
1
1
Das Pivotelement ist eingerahmt . BL:x 3 =1, x^=1; x^=x 2 =0; z = 0. o
2. Tableau (nach Austauschschritt): BV
NBV
BV
NBV
X
X
2
x
x
0
-2
0
1
0
-1/2 -1/2
1
-1/2
1/2
0
1/2
1/2
1
1
3
BL:
4 1
1
Auswahlregel II ;min (-jr^ ="2 '
x 3-4