223 43 2MB
German Pages 137 [140] Year 2006
Mathematik für Wirtschaftswissenschaftler Vorlesungsbegleittext zu Vorkurs, Lineare Algebra und Analysis
Von Privatdozent
Dr. habil . Uwe Jensen
4., durchgesehene Auflage
R. Oldenbourg Verlag München Wien
Bibliografische Information Der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrutbar.
© 2006 Oldenbourg Wissenschaftsverlag GmbH
Rosenheimer Straße 145, D-81671 München Telefon: (089) 45051-0 oldenbourg.de
Das Werk einschließlich aller Abbildungen ist urheberrechtlich geschützt. Jede Verwertung außerhalb der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzu
lässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikro verfilmungen und die Einspeicherung und Bearbeitung in elektronischen Systemen. Gedruckt auf säure- und chlorfreiem Papier Druck: Meindl-Druck GmbH, Dachau ISBN
3-486-58089-2
ISBN 978-3-486-58089-1
Vorwort Die Zahl an Büchern mit dem Titel 'Mathematik für Wirtschaftswissenschaftler' ist er drückend. Dennoch füllt das vorliegende Buch mit dem gleichen Titel eine Lücke, die nun beschrieben werden soll. Zunächst einmal ist es weit weniger als ein Lehrbuch, aber deutlich mehr als eine For melsammlung. Warum sollte dafür ein Bedarf bestehen? - Nun, es kann sehr schwierig sein, zur Vorlesungsbegleitung ein eigenes oder fremdes gutes Lehrbuch zu verwenden. Bei fremden Lehrbüchern ist man oft zeitlich gar nicht in der Lage - wenn man denn dazu bereit ist -, den dort präsentierten Stoff in der gleichen Form angemessen vorzustellen, so daß man dann springen und überspringen muß und das Lehrbuch von den Studenten nicht so recht akzeptiert wird ('Haben Sie kein Skript?'). Und es ergeben sich immer wieder Fragen wie 'Könnten Sie Beispiell3.3 bitte auch erklären? Oder ist das nicht klausurre levant?'. Hält man sich aber peinlich an die eigene oder fremde Vorlage, dann kommt der (berechtigte) Vorwurf: 'Der liest ja nur das Buch vor!' Ein gutes Lehrbuch also ist meines Erachtens zum Selbststudium gut geeignet, aber zur Vorlesungsbegleitung problematisch. Das vorliegende Buch enthält den mathematischen Stoff eines ausführlichen Lehrbuchs zur 'Mathematik für Wirtschaftswissenschaftler', also alle Definitionen, Sätze und Bemerkun gen, und dazu mathematische Veranschaulichungen und ökonomische Motivation. Aber es ist zum Selbststudium eines durchschnittlichen Studienanfängers eindeutig NICHT ge eignet, denn es fehlen alle Beispiele und alle Graphiken. Dieses Buch enthält also alles, was ein(e) Student(in) aus einem derartigen Kurs mitnehmen sollte, ohne es von der Ta fel o.ä. abschreiben zu müssen, und es enthält diejenigen Teile nicht, die er (sie) in der Vorlesung zur Übung mitdenken, mitschreiben und mitzeichnen sollte. Auf diese Weise bieten sich auch dem Dozenten, der dieses Buch als Vorlesungsgrundlage verwendet, einige Freiheitsgrade bei der Wahl der Geschwindigkeit (lieber ein schnelles Beispiel oder doch etwas gründlicher) und auch bei der Würze mit aktuellen Beispielen, vielleicht aus den eigenen Interessensgebieten. An vielen Universitäten ist die Vorlesungs- und Übungszeit nicht ausreichend, um den Sprung von den teilweise sehr lückenhaften mathematischen Kenntnissen mancher Stu dienanfänger zu den mathematischen Anforderungen einiger ökonomischer Veranstaltun gen späterer Semester vernünftig unterstützen zu können. In Kiel etwa, wo nur zwei zweistündige Pflichtveranstaltungen mit Klausuren (Analysis und Lineare Algebra) zur Verfügung stehen, hat man zur Abhilfe noch einen freiwilligen Vorkurs geschaffen. Damit aber alle Kurse in einem Semester gehört werden können, wird der Vorkurs in der ersten Semesterhälfte vierstündig, die Analysis in der zweiten Semesterhälfte vierstündig und die lineare Algebra zweistündig ganzsemestrig unterrichtet. Daher ist die Stoffaufteilung im vorliegenden Buch auch etwas anders als üblich: Es wird nicht die gesamte Analysis für Funktionen einer Variablen vor der für Funktionen mehre-
2 rer Variablen behandelt. Der Vorkurs besteht aus den vorbereitenden Konzepten ( Grund lagen, Funktionen einer Variablen, elementare Funktionenklassen, Folgen und Reihen, Grenzwerte, Stetigkeit und Einführung der Differentialrechnung ) , während viele ökono misch bedeutende Bereiche wie die Optimierung für Funktionen einer und mehrerer Va riablen in der Analysis behandelt werden. Das Ziel ist also, möglichst viel wichtigen Stoff klausurrelevant werden zu lassen, ohne den didaktischen Faden zu verlieren. Vielleicht ist die gewählte Aufteilung für andere Dozenten mit ähnlichem Zeitbudget von Interesse. Das vorliegende Buch bemüht sich, auch wenn die Beispiele und Graphiken fehlen, sehr um Anschaulichkeit. Man kann nicht mathematische Konzepte einführen, ohne zu sagen, wofür sie gebraucht werden. Und man kann sie nicht erklären, ohne zu sagen, welche einfache Idee dahintersteckt. So werden etwa Eigenwerte in der linearen Algebra oft 'als eine Formel mit gewissen Anwendungen' eingeführt. Es macht aber auf beiden Seiten des Podiums keine Schwierigkeiten, sich diese Eigenwerte mit Hilfe von Streckungen und Stauchungen sehr anschaulich vorzustellen. Auf derartige 'unübliche' Erläuterungen wird in diesem Buch großer Wert gelegt, da ohne diese Anschauung etwa Eigenwerte m.E.nicht richtig verstanden werden können. Das heißt aber nicht, daß die Definitionen und Sätze selbst aufgeweicht werden.Diese bleiben exakt, aber werden dann ( hoffentlich ) vorstellbar gemacht. Und, wie schon erwähnt, kann die Anschauung erst mit Graphiken zur vollen Entfaltung kommen, die es in der Vorlesung und nicht in diesem Text zu sehen gibt. Die Vorkenntnisse der Studienanfänger sind sehr ungleich. Da sitzen Zuhörer, die fast jeden Fehler bemerken, neben anderen, die schon bei der Wiederholung der Potenzregeln nervös werden. In Klausuren fallen fast genau die Leute durch, die starke Defizite aus der Schulzeit mitbringen und nicht im Studium anfangen, daran massiv zu arbeiten. Des wegen fängt dieses Buch mit den Grundlagen an, und es wird auch an vielen Stellen auf typische Anfängerfehler hingewiesen. Fehlendes Verständnis neuen mathematischen Stoffs hat oft seine Ursache in ganz banalen Lücken aus der Schulzeit. Antworten auf ständig auftretende Fragen werden ebenso erwähnt wie Hinweise auf korrekte Interpretationen. Dennoch bewegt sich der Text insgesamt auf - für Wirtschaftswissenschaftler - hohem formalen Niveau, weil ein reiner 'Rechenkurs' m.E. die Studienanfänger nicht angemessen auf die nächsten Semester vorbereiten würde. Der Inhalt dieses Buchs schließlich ist im wesentlichen der Standardstoff eines ausführ lichen Kurses zur Mathematik für Wirtschaftswissenschaftler, der in sechs Semesterwo chenstunden zu bewältigen ist. Wie schon erwähnt, wird mehr als üblich zur Anschauung linearer Abbildungen erzählt, die dann bei der Einführung von Determinanten und Ei genwerten ausgenutzt wird. Mancher wird schließlich die lineare Programmierung - wird in Kiel im Rahmen des Operations Research gelesen - und die Differenzen- und Differen tialgleichungen vermissen. Letzteren kann man bei sechs Semesterwochenstunden nicht gerecht werden. Ich bedanke mich bei Prof. Dr. Dieter Betten, der mir gezeigt hat, daß Mathematik und Anschauung zusammengehören. Prof. Dr. Gerd Hansen danke ich dafür, daß er meinen Blick für das Einfache und für die Anwendung geschärft hat. Mein Dank gilt meinen Vorgängern Prof. Dr. lngo Klein und Söhnke Frank für ihre Vorleistungen und meinen ehemaligen Tutoren Claudia Wörpel und Carsten Thomsen-Bendixen für ihre Startanre gungen. Meinen ehemaligen Kollegen Dr. Günter Coenen und Dr. Norbert Janz danke ich sehr herzlich für die gründliche Durchsicht großer Teile des Skripts. Meinem ehema ligen Tutor Kai Carstensen gebührt schließlich Dank für die kritische Endkontrolle des gesamten Textes. Dem Oldenbourg-Verlag, insbesondere Herrn Diplom-Volkswirt Martin
3 M. Weigert, danke ich für die reibungslose Aufnahme des Buchs. Alle verbliebenen Fehler gehen natürlich auf mein Konto. Und da dieses Konto sicher nicht leer ist, bin ich für weitere Hinweise auf Fehler und mögliche Verbesserungen sehr dankbar.
Inhaltsverzeichnis I
9
Vorkurs
1 Grundlagen 1.1 Das griechische Alphabet . 1.2 Aussagenlogik 1.3 Mengenlehre . . 1.4 Zahlbereiche . . 1.5 Ungleichungen . 1.6 Intervalle . . . . 1. 7 Potenzrechnung 1.8 Summenzeichen 1.9 Produktzeichen 1.10 Binomischer Satz
11 12 12 13 14 15 16 17 17 18 18
2 Funktionen einer Variablen 2 . 1 Funktionsbegriff . . . . . . . . . . . . . 2.2 Verknüpfung von Funktionen . . . . . 2.3 Monotone und beschränkte Funktionen 2.4 Umkehrfunktionen . .
21 21 24 25 26
3
Elementare Funktionen 3.1 Polynome . . . . . . . . . . . . . . . . . 3.2 Rationale und algebraische Funktionen 3.3 Exponentialfunktionen und Logarithmen 3.4 Trigonometrische Funktionen . . . . .
29 29 31 31 34
4
Folgen, Reihen, Grenzwerte, Stetigkeit 4.1 Folgen und Reihen . . . . . . . . . 4.2 Grenzwerte bei Folgen und Reihen 4.3 Grenzwerte von Funktionen 4.4 Stetigkeit . . . . . . . . .
37
.
5 Differentialrechnung 5.1 Grundlagen . . . . 5.2 Ableitungsregeln 5.3 Regel von de l'Hopital
37 38 40 43
47
47
49
51
INHALTSVERZEICHNIS
6 Lineare Algebra
53
6
Vektorrechnung 6.1 Vektoren . . . 6.2 Vektorverknüpfungen . 6.3 Skalarprodukte . . . 6.4 Linearkombinationen 6.5 Basen . . . . .
55 55 56 57 60 62
7
Matrizenrechnung 7.1 Matrizen . . . . 7.2 Matrixverknüpfungen . 7.3 Rang und Inverse . . .
63
8
Lineare Gleichungssysteme
9
Eigenwertprobleme 9.1 Lineare Abbildungen 9.2 Determinanten . . . 9.3 Eigenwerte . . . , . . 9.4 Quadratische Formen .
II
111
Analysis
10
Differenzierbare Funktionen 10 .1 Funktionen mehrerer Variablen 10 .2 Partielle Differentiation . . . . . 10 .3 Differential . . . . . . . ; . . . 10 .3.1 Differential einer Funktion einer Variablen 10 .3.2 Totales Differential . . . . . . . 10 .4 Verallgemeinerte Kettenregel . . . . . . 10 .5 Partielle Ableitungen höherer Ordnung 10 .6 Ableitung impliziter Funktionen . 10 .7 Homogenität . . . . . . . . . . . . . 10 .8 Änderungsraten und Elastizitäten . 10 .8.1 Funktionen einer Variablen . 10 .8.2 Funktionen mehrerer Variablen 10 .9 Taylorreihen .
11
Optimierun g 11.1 Lokale und globale Extrema . . . . . . 11.1.1 Funktionen einer Variablen . . . 11.1.2 Funktionen mehrerer Variablen 11.2 Konvexität und Konkavität . . . . . . 11.2.1 Funktionen einer Variablen . . . 11.2.2 Funktionen mehrerer Variablen 11.3 Bedingungen für Extrema . . . . . . .
63 65 68
73 79
79 81 84 87
89 91
91 93 94 94 95 97 98 99 10 0 10 1 10 1 . 10 5 . 10 6 109
10 9 10 9 110 111 111 113 115
INHALTSVERZEICHNIS 11.3.1 Funktionen einer Variablen. 11.3.2 Funktionen mehrerer Variablen 11.4 Sattelpunkte . . . . . . . . . . . . . . . 11.4.1 Funktionen einer Variablen. . . 11.4.2 Funktionen mehrerer Variablen 11.5 Optimierung unter Nebenbedingungen 11.5.1 Substitutionsverfahren 11.5.2 Lagrange-Verfahren ....... 12
Integralrechnung 12.1 Bestimmtes Integral. 12.2 Stammfunktionen 12.3 Rechenregeln . . . 12.4 Ergänzungen ... 12.5 Substitutionsregel .
7 115 116 117 118 119 119 120 121 125
125 127 129 130 132
Teil I Vorkurs
Kapitel 1 Grundlagen Bemerkung
1.1
Wenn Sie zu den Leuten gehören, die nicht wissen,
1 . warum die Schreibweise 3 · -4 Unsinn ist, 2. daß für y # 0 gilt:
- y 2 # ( -y ) 2 ,
3. daß für n # 1 ebenso gilt: nl n =
n
· In # n n
4. wieso i. a. a + bcd # (a + b)cd # (a + bc)d ist, 5. daß i. a. � # ..fi2- ..,JYi und Jx + y #
6. daß für c .J.. 0 zwar I
ill
7. daß mit b, d # 0 i. a.
c
x + 2y'xY + y ist,
.J.. 0 und e + f # 0 i. a. gilt: = �c + �c gilt, aber für e, f I
� # � ist,
8. daß mit x, a, b # 0 i. a. ; = a + b nicht äquivalent zu x 9. daß für x E R
x2 +
= 0 {=:} eine folgenschwere Ungenauigkeit enthält, X
X
= � +!
ist,
+1=0
10. und daß mit c # 0 _
( a +c b ) =
_
a + b - (a + b ) - a - b = = c c c
+ b -a + b # = a -c c
zu beachten ist, dann fehlt es Ihnen an Vor- Vorkurs-Stoff, den Sie unbedingt sofort mit {1], {2} {sie he Literaturverzeichnis) oder auch eigenen Schulbüchern wiederholen müssen, da er in Vorkurs, Analysis und Linearer Algebra vorausgesetzt wird. Die Gebiete, die in diesem einführenden Kapitel nicht noch extra behandelt werden, sind die Klammerrechnung, die Bruchrechnung, die Wurzelrechnung, die Behandlung von Gleichungen und die Verknüpfungshierarchie .
KAPITEL 1 . GRUNDLAGEN
12 1.1
Das griechische Alphab et
Um den großen Bedarf an Symbolen für ökonomische bzw. mathematische Begriffe zu decken, benutzt man gerne auch das griechische Alphabet, das daher hier abgedruckt wird. Die angegebenen deutschen 'Namen' decken sich oft nicht mit der korrekten griechischen Aussprache. Name Alpha Gamma Epsilon Eta Iota Lambda Ny Omikron Rho Tau Phi Psi
1.2
klein a
'Y E, e 7J L
A V
0
p, (!
T
a.
ist kleiner (oder) gleich b' und ist äquivalent zu b ;=:: a .
Satz 1 . 1 (Regeln) Seien
a,
b, c, d, e E R .
10 .8. Zu
KAPITEL 1. GRUNDLAGEN
16 1.
a < b => a + c < b + c
2. a < b I\ d
>
0 => ad < bd
3. a < b I\ e < 0 => ae > be Bemerkung 1.6
1.6
Analoge Aussagen gelten für a :S:b.
Intervalle
Zusammenhängende Teilmengen der reellen Zahlen heißen Intervalle und werden oft, etwa bei der Definition ökonomischer Funktionen - siehe das nächste Kapitel -, anzutreffen sein.
Definition 1.
1.13
Seien a, b, x E R.
Abgeschlossenes Intervall: [a, b] := { x I a :S: x :S: b}
2. Offenes Intervall : (a, b) := {x I a < x < b}
3. Halboffene Intervalle: Bemerkung weise ]a, b[.
1.
{
[a, b) := {x l a:S:x < b} (a, b] := {x I a < x :S: b}
7 Für offene Intervalle findet man in manchen Büchern auch die Schreib
Definition 1.14 (Uneigentliche Intervalle) Seien a, b, x E R. Mit oo a,ls Symbol für ' Unendlich ' definiert man: 1.
( a, oo) := { x I x
>
a}
2 . [a, oo) : = {x l x?a}
3. ( -oo , b) := {x l x < b} 4 · (-oo , b) := {x l x:S:b} Bemerkung
1.8
Beachte: oo rt R
Da ökonomische Variablen oft nur positive Werte annehmen, sind die folgenden Kurz schreibweisen sehr nützlich.
Definition
1.15
1. R+ := [0,
oo)
2 . R� :={(x, y) I x, yER+} 3. (O, oo)2:={(x, y)lx, yE(O, oo)}
1 . 7. POTENZRECHNUNG
1. 7
17
Pot enzrechnung
Zur Wiederholung folgen nun die aus der Schule bekannten Aussagen zur Potenzrechnung, die sicher beherrscht werden müssen.
Definition 1 . 16 Sei x ER und n E N . Dann heißt
Potenz, gelesen als 'x hoch n '. x heißt Basis,
n
Exponent. Man definiert x0 := 1.
Bemerkung 1 .9 Die zunächst seltsam aussehende Definition x0 := 1 erweist sich a.n vielen Stellen als sinnvoll, etwa beim Kürzen in Brüchen oder bei der Defi nition der Ex ponentialfunktion in Abschnitt 3. 3. Satz 1.2 (Potenzregeln) Seien x,y ER, 2.
� = xm-n, falls x =/:- 0
3.
(xy)n = xny n
m, n E
N.
4. (if = � �falls y =/:- 0 5.
(xm)n = xm·n
6. x-n = .Jn., X falls x =/:- 0
7. x11n = y'x, falls x ;::: 0
8. Xm/n = vxm = ( y'x)m, falls X ;::: 0 Bemerkung 1 . 10 Man beachte:
1.8
S ummenzeichen
Es spart in vielen Fällen in beträchtlichem Umfang Zeit und Platz, für 'ähnliche' öko nomische Größen indizierte Symbole zu verwenden. Für diese gibt es dann die folgende einfache Summenschreibweise.
Definition 1.17 Seien k, m E Z mit k � m . Seien a; ER für i = k, k + 1 , . . ., m. Dann dient das Summenzeichen L: zur Kurzschreibweise von Summen: m L: a; := a k + a k + l + . . . + am i= k Dabei heißt i Summationsindex, k Untergrenze und m Obergrenze.
18
1.
KAPITEL
GRUNDLAGEN
Der folgende Satz überträgt einfache Rechenoperationen wie Ausklammern und Umsor tieren auf die Summenschreibweise.
Satz 1.
1.3
(Rechenregeln) Seien k , m E Z und a;, b; , c E R für i = k, k + 1, . .. , m .
L:�k c = ( m - k + l)c
Man bildet schließlich Doppelsummen, indem man die Koeffizienten a;i für alle vereinbar ten Paare (i, j) aufsummiert:
Definition 1.18 (Doppelsummen) Seien k , l, m , n E Z mit k a;i E R für i = k, k + 1, . .., m und j = l, l + 1, . . . , n . Dann ist m
n
n
m
�
m
n
n
n
i=l
i=l
i=l
und l
�
n . Seien
EL:a;j = EL:a;j : = L:a lci + L:a lc + I ,i + .. . + L:a mi i=lc i=l
1.9
i=l i=lc
Produktzeichen
Analog zum Summenzeichen definiert man das Produktzeichen, das aber weit seltener anzutreffen ist.
Definition 1.19 Seien k, m E Z mit k � m. Seien a; E R für i = k, k + 1, ..., m. Dann dient das Produktzeichen li zur Kurzschreibweise von Produkten:
Dabei heißt i Multiplikationsindex, k Untergrenze und m Obergrenze. Satz
1.4
1.10
(Rechenregeln) Seien k, m E Z und a;, b; , c E R für i = k , k + 1, . . . , m.
B inomischer S at z
Fakultäten und Binomialkoeffizienten sind etwa i n der Wahrscheinlichkeitsrechnung von großer Bedeutung, aber sie sind auch Bestandteil des binomischen Lehrsatzes ( s.u.) , der oft nur im Spezialfall n = 2 bekannt ist.
Definition 1.20 Sei n E N. Dann ist n ! := 1 · 2 · . . . · ( n - 1 ) · n = Ilf=1i, gelesen als 'n Fakultät'. Man definiert 0! := 1.
19
1.10. BINOMISCHER SATZ Definition 1 . 2 1 Seien lautet:
n,
j E N0 . Der Binomialkoeffizient, gelesen als 'n über j ',
( ) -{ n
·1(
nn�
")I falls n � j J . j . 0 sonst Bemerkung 1 . 1 1 1. Das Wort 'Binomialkoeffizient ' leitet sich von 'Binom ' (s. u.) ab, nicht etwa von 'nominal' (mit fehlerhaften Folgen). ·
J.
2. Der folgende Satz nennt die Rechenregeln für Binomialkoeffizienten, die die Kon
struktion des Pascal'schen Dreiecks gestatten, das wiederum eine ganz einfache An wendung des binomischen Satzes ermöglicht.
Satz 1 .5 (Eigenschaften) Seien
(j) E No 2. (j) (n�J 3. (�) (�) 1 4. (�) (n�l) 5· (:;) + c�l) (:;tn
n, j
E N0 •
1.
=
=
=
=
= n
=
Satz 1.6 Im Pascalsehen Dreieck, hier für n = 0, 1, . . . , 4, 1 1
1
2
1 1
3
3
1 4
1
6
1 4
1
sind die Binomialkoeffizienten (j) zeilenweise für j = 0, 1, . . . , n abgetragen. Dabei ist jede Zahl im Innern des symmetrischen (Satz 1.5. 2} Dreiecks einfach die Summe der beiden schräg über ihr stehenden (Satz 1.5.5) und der Rand besteht nur aus Einsen (Satz 1.5.3). Satz 1. 7 (Binomischer Satz) Seien a , b E R und n E N0 . Dann gilt:
()
(a + bt = t � aibn -i Bemerkung 1.12 2.
n
i=O
J
1. (a + b ) wird Binom genannt.
Man erhält demnach etwa 2 2 2 • für n = 2: (a + b) = a + 2ab + b 2 2 • für n = 3 : (a + b) 3 = a 3 + 3a b + 3ab + b3
3. Beachte, daß a und b auch negativ sein dürfen.
4. Beachte, daß der Satz nur für n E No gilt!
Kapitel 2 Funktionen einer Variablen 2.1
Funkt ionsbegriff
In diesem Abschnitt wird mit der Funktion ein fundamentaler Baustein aller ökonomischen Modelle vorgestellt, der es gestattet, Abhängigkeiten ökonomischer Variablen voneinander zu beschreiben.
Definition 2.1 riable .
1. Eine Größe, die unterschiedliche Werte annehmen kann, heißt Va-
2. Eine Größe, die nur einen Wert annehmen kann, heißt Konstante.
Definition
2.2
Seien X und Y zwei Mengen.
1. Jede Teilmenge des kartesischen Produkts X Y.
x
Y heißt Relation zwischen X und
2. Eine Relation f zwischen X und Y heißt Funktion oder Abbildung, wenn durch f j edem x E X, höchstens ein y E Y zugeordnet wird. Eigenschaft 1 bezeichnet man
. 2 1 als Links-Vollständigkeit, 2 als Rechts-Eindeutigkeit von f. Schreibweise: f : X -t Y, y = f(x). D t = {x EX 13 y E Y mit y = f(x)} wird als Definitionsbereich bezeichnet, die Elemente XE n, als Urbilder oder Argumente. w, = { y E Y 13 x E X mit y = f(x) } wird als Wertebereich bezeichnet, die Elemente y E Wt als Bilder oder Fu.nktionswerte . 3. Eine Funktion f zwischen X und Y heißt surjektiv, falls Y = Wt ist, falls sie also auch rechts-vollständig ist. 4. Eine Funktion f zwischen X und Y heißt injektiv oder eineindeutig, wenn zu je dem y E Y höchstens ein Urbild x EX existiert, falls sie also auch links-eindeutig ist. 5. Eine Funktion f zwischen X und Y heißt bijektiv, falls f injektiv und surjektiv
ist.
KAPITEL 2. FUNKTIONEN EINER VARIABLEN
22
6. Eine Funktion heißt reell, falls X � R und Y � R.
Bemerkung 2.1 Da im folgenden nur noch reelle Funktionen betrachtet werden, wird diese Eigenschaft nicht mehr erwähnt. Die folgende Definition nennt ein erstes (reelles) Funktionsbeispiel und ihre Verallgemeinerung, die wiederum Spezialfall der Polynome in Abschnitt 3. 1 ist. Definition 2.3 1. f: R---+ R, f(x) = x2 nennt man quadratische Funktion und ihren Graphen NormalparabeL 2. Sei k E N. f: R---+ R, f(x) = xk heißt Potenzfunktion . Definition 2.4 (Funktionsdarstellungen) Sei f: X ---+ Y, y = f(x) eine Funktion.
1. y = f(x) heißt (explizite) Funktionsgleichung . 2.
Eine Wertetabelle ist eine Tabelle, in der alle oder einige ausgewählte Urbild-Bild Paare von f eingetragen werden.
3. Der Graph von f ist die Menge {(x,J(x)) I x E D1 }, die in der reellen Zahlen ebene dargestellt werden kann. Auf der waagerechten Achse, der Abszisse, werden die X-Koordinaten abgetragen, auf der senkrechten Achse, der Ordinate, die y Koordinaten . Die nun folgende Funktion ist etwa von Bedeutung bei den Elastizitä.ten in Abschnitt 10.8, wo es teilweise nur um die Größe eines ökonomischen Effekts, aber nicht um dessen Vorzeichen geht.
Definition 2.5 Die Betragsfunktion wird definiert als:
f: R-+ R, f(x) = lxl :=
{
x f� r x 2:: 0 x - fur x < 0
Bemerkung 2.2 1 . Obige Definitionsweise wird als abschnittsweise Definition bezeichnet. Wichtig dabei ist, daß die Zerlegung des Definitionsbereichs eine Partition (siehe Abschnitt 1 . 3) ist. 2.
Wichtig bei den folgenden Rechenregeln ist vor allem der zweite Punkt, der bedeutet, daß bei Auflösung einer Betragsgleichung i.a. eine Fallunterscheidung durchzuführen ist.
Satz 2.1 (Rechenregeln) Seien x,y E R, a
1. lxl = 1- xl 2.
lx l =
a
=>
x = a oder x = -a
3. lx + Yl :::; lxl + IYI
4. lx- Yl 2:: lxl- IYI 5.
lx· Yl = lxl· IYI
2::
0.
2. 1.
Definition 2.6 2.
23
FUNKTIONSBEGRIFF
1. Eine intervallweise konstante Funktion heißt Treppenfunktion.
Die Vorzeichenfunktion wird definiert als: sign : R-+ R,
sign ( x ) :=
{
1 für x > 0 0 für x =O -1 für x < 0
3. Die Rundungsfunktion wird definiert als: round : R-+ R,
[ � �)
round ( x ) :=k für x E k - , k +
wobei k die Menge der ganzen Zahlen durchläuft. Bemerkung 2.3 Vorzeichenfunktion und Rundungsfunktion sind Treppenfunktionen. Definition 2. 7 Seien f : D 1 -+ R und g : D9 -+ R zwei reelle Funktionen. Sei A eine Menge mit A � D1 und A � D9• Dann ist
{
f(x) falls f(x) � g(x) �Eax {f( x) , g(x) } := g(x ) falls f(x) < g(x ) das Maximum von f(x) und g(x) über x aus
.
{
und
A
f(x) falls f(x) �X {f(x) , g(x)} := g(x ) falls f(x)
� >
g(x) g(x)
das Minimum von f(x) und g(x) über x aus A. Bemerkung 2.4 Es gilt lx I = maxx eR { x, -x } , was zeigt, daß 'gleiche ' Funktionen durchaus verschiedene Darstellungen haben können. Definition 2.8 1 . Zwei Funktionen f und g sind gleich, wenn D1 = D9 und wenn V x E D1 gilt: f(x) =g(x) 2.
Der natürliche Definitionsbereich einer Funktion f ist der (mathematisch} größtmögliche.
Die nun folgende Definition, bei der der natürliche Definitionsbereich nicht die ganze reelle Zahlenachse ist , ist ein Spezialfall der rationalen Funktion in Abschnitt 3.2.
Definition 2.9 Der Graph von f : R \ {0} -+ R, f(x) = � heißt NormalhyperbeL Nun folgen die beiden mathematisch einfachsten Funktionen, die auch Spezialfall der Polynome in Abschnitt 3.1 sind.
Definition 2.10 1. Für a , b E R heißt f Funktion und ihr Graph Gerade .
R -+ R,
f( x) = a + bx affin-lineare
KAPITEL 2. FUNKTIONEN EINER VARIABLEN
24 2.
Sei c E R. f : R- R, f(x) = c heißt konstante Funktion.
Bemerkung 2.5 Ökonomisches Denken basiert i. a. auf Modellbildung. Ein ökonomi sches Modell ist ein stark vereinfachtes Abbild der Realität, das wesentliche Wirkungen auf bestimmte ökonomische Variablen hervorhebt und meist mit Hilfe von Funktionen formuliert wird. Hat eine mathematische Funktion f : R- R, y = f(x) eine ökonomi sche Bedeutung, so wird sie auch kausal interpretiert. Die unabhängige oder exogene Variable x erklärt das Verhalten der abhängigen oder endogenen Variablen y . Definition 2 . 1 1 Sei f : X - Y, y = f(x) eine Funktion. Weitere eventuell in der Funktionsgleichung auftretende 'Hilfsvariable ' heißen Parameter. Bemerkung 2.6 1 . Parameter helfen bei der Beschreibung der Zusammenhänge ökonomischer Variablen. 2.
2.2
Die korrekte Aussprache lautet 'Parameter ' - ebenso bitte auch 'Analysis '. Betont wird also jeweils die drittletzte Silbe. Verknüpfung von Funkt ionen
Dieser Abschnitt stellt fünf wichtige Funktionsverknüpfungen vor, von denen die ersten vier in der folgenden Definition für den Nicht-Mathematiker nur Trivialitäten zu bieten scheinen, die fünfte in der letzten Definition hingegen für manchen weniger vertraut sein dürfte.
Definition 2 . 1 2 Seien f : D1 - R und g : D9 - R Funktionen. Sei D19 = D1 n D9 und Dj9 = D19\ {x ig(x) = 0} mit D19 :{; 0 und Dj9 :{; 0. Dann ist
1. f+ g : D19 - R, (!+ g)(x) = f(x)+ g(x) 2.
f - g : D19 - R, (! - g)(x) = f(x) - g(x)
3. f · g : D1u - R, (! · g)(x) = f(x) · g(x) 4·
�: Dj9 - R, (�) (x) = ffit
Bemerkung 2.7 Es gilt (!+ g)(x) = (g+ f)(x) und (! · g)(x) = (g · f)(x) . Die folgende Definition präsentiert weitere Spezialfälle der Geraden bzw. Polynome ( Ab schnitt 3.1) und der rationalen Funktionen ( Abschnitt 3.2).
Definition 2 . 13 2.
1 . id : R- R, id(x) = x heißt Identität.
Sei f : n, - R, y = f(x) eine Funktion. S : D1 \ {0} - R, S(x) = Durchschnitts- oder Stückfunktion.
iJ;l heißt
Die Funktionsverkettung spielt z.B. eine grundlegende Rolle bei der Kettenregel der Dif ferentiation in Abschnitt 5.2.
25
2. 3. MONOTONE UND BESCHRÄNKTE FUNKTIONEN
Definition 2.14 Seien f : D1 -+ W1 und g : D9 -+ W9 zwei Funktionen mit W9 Dann heißt f o g : D9 -+ w, , (! o g) (x) = f(g(x)) die Hintereinanderausführung (HEA) oder Verkettung von f und g.
s;;
D, .
Bemerkung 2.8 1 . Die Verkettung von Funktionen kann sinnlos sein bei ökonomischer Gehaltlosigkeit und sie kann durch die Verletzung der Bedingung W9 s;; D, mathematisch unmöglich sein. 2.
/. a. gilt f o g -:/:- g o f
3. I. a. gilt f o g =f f · g und g · f -:/:- g o f 2.3
Monot one und b eschränkt e Funkt ionen
Hier werden zwei weitere Funktionseigenschaften eingeführt . Es ist etwa von Interes se, die Monotonie ökonomischer Funktionen festzustellen, da diese bedeutet , daß die Erhöhung einer exogenen Variablen im gesamten relevanten Teil des Definitionsbereichs eine Erhöhung /Senkung der endogenen Variablen nach sich zieht .
Definition 2.15 Eine Funktion f : D1 -+ R heißt auf der Menge 1.
streng monoton steigend, wenn V Xt, x 2 E
2.
streng monoton fallend, wenn V Xt , x 2 E
3. monoton steigend, wenn V Xt, x 2 E 4. monoton fallend, wenn V Xt, x 2 E
A
A
A
A
gilt: x 2 > x 1
gilt: x 2
gilt: x 2 > x 1
gilt: x 2 > x 1
:>
=>
=>
x1
A s;;; =>
=>
D1
j(x 2 ) > f(x l )
j(x 2 ) < f(x l )
j(x 2 ) � j (x 1 )
j (x 2 )
:5
f(x l )
Bemerkung 2.9 1. Der Nachweis der Monotonie ist leichter mit Ableitungen zu führen. Siehe dazu Abschnitt 11. 2. 2.
Man beachte, daß in der obigen Definition der Fall x 2 = x 1 nicht betrachtet wird.
Da ökonomische Variablen i.a. nicht über alle Grenzen wachsen werden, wird nun die Beschränktheit des Wertebereichs von Funktionen formalisiert .
Definition 2.16 Eine Funktion f: D1 -+ R heißt auf der Menge
A s;;;
D1
1 . nach oben beschränkt, wenn einS E R existiert mit f(x) :5 S V x E A. S heißt
dann obere Schranke .
2.
nach unten beschränkt, wenn ein s E R existiert mit f(x) � s V x E dann untere Schranke .
3. beschränkt , wenn ein Schranke .
u
E R existiert mit lf(x) l
:5
u
Vx E
A.
Gibt es keine untere oder obere Schranke für f, so heißt f unbeschränkt .
u
A.
s heißt
heißt dann
KAPITEL 2. FUNKTIONEN EINER VARIABLEN
26
Schranken sind zwar nicht eindeutig, aber die folgende Definition nimmt diese Ergänzung, falls erforderlich, in naheliegender Weise vor.
Definition 2.17 1. Die kleinste obere Schranke von f auf A heißt Supremum von f auf A. Schreibweise: sup.,eA f(x) . 2. Die größte untere Schranke von f auf A heißt lnfimum von f auf A. Schreibweise: inf.,eA f( x) .
Bemerkung 2.10 Supremum und /nfimum müssen nicht zum Wertebereich der Funktion gehören. 2.4
Umkehrfunkt ionen
Soll eine Relation zwischen X und Y eine Abbildung von X nach Y und von Y nach X sein - siehe Abschnitt 2 . 1 -, so muß f bijektiv sein.
Definition 2.18 Sei f : X -+ Y eine bijektive Funktion. Die Funktion, die jedem y E Y sein Urbild x E X zuordnet, heißt Umkehrfunktion oder inverse FUnktion f- 1 von f. Bemerkung 2.11 1. f- 1 o f = id, f- 1 (f(x) ) = x . Funktion und Umkehrfunktion heben sich in ihrer Wirkung auf. 2. Die Surjektivität kann durch Beschränkung des Werte bereichs der Funktion und
die Injektivität durch Beschränkung/Zerlegung des Definitionsbereichs der Funktion erreicht werden.
Die Ü berprüfung der Injektivität einer Funktion ist i.a. sehr mühsam. Dagegen ist die Monotonie mit Hilfe der Ableitung - siehe Abschnitt 11.2 - relativ leicht festzustellen. Daher bedeutet der folgende Satz bei Anwendbarkeit eine Arbeitserleichterung.
Satz 2.2 Ist eine reelle Funktion f auf A
{
für b < 0 keine Lösung für b = 0 eine Lösung x=0 zwei Lösungen x 1 ,2 = ±Jb für b > 0
Bemerkung 2 . 15 Graphisch bedeutet die Bildung der Umkehrfunktion von f einfach die Spiegelung von f an der Identität. Da man auch nicht-bijektive Funktionen spiegeln kann, folgt aus der Spiegelbarkeit aber nicht die Existenz der Umkehr/unktion !
Kapitel 3 Elementare Funktionen 3.1
Polynome
Die Polynome bilden die einfachste der größeren elementaren Funktionenklassen.
Definition 3.1
n Pn : R -+ R, Pn (x) = a n x n + a n-l X n- l + . . . + a 1 x + ao = � a;x i i =O mit a n :f: 0 heißt Polynom n-ten Grades mit Koeffizienten a; E R für i = 0 , 1, ... , n. Bemerkung 3.1 Konstante Funktionen sind Polynome 0. Grades, die Identität und affin-lineare Funktionen sind Polynome 1. Grades und die Potenzfunktion x" ist ein Po lynom k. Grades (siehe Kap. 2}. Von sehr großer Bedeutung, etwa bei der Optimierung von Funktionen in Abschnitt 11.3, ist die Nullstellenbestimmung. Bei Polynomen lassen sich Nullstellenprobleme sehr syste matisch behandeln.
Definition 3.2 Sei f : R -+ R, y = f(x) e me (beliebige) Funktion. x o E R heißt Nullstelle von f, wenn f(x0) = 0 . Bemerkung 3.2 Nullstellen sind Schnitt- bzw. Berührpunkte des Graphen von f mit der x-Achse. Es folgt die bekannte Nullstellenformel für Polynome 2. Grades.
Satz 3.1 Seien a, b, c E R, a :f: 0 . Die Nullstellen von P(x) = ax 2 + bx + c lauten
- b ± .../b 2 - 4ac 2a sofern b2 2:: 4ac. Für a = 1 reduziert sich die Formel auf X 1 ,2 =
x 1 .2 =
-� ± � Gr
_
c
30
KAPITEL 3. ELEMENTARE FUNKTIONEN
Bemerkung 3.3 Für Polynome 3. und 4. Grades gibt es längere Nullstellenformeln, die etwa in {13} nachzuschlagen sind. Weiterhin kann man zeigen, daß es für beliebige Poly nome vom Grade n � 5 keine Nullstellenfor· m eln geben kann, sodaß dann nur nu.merische Verfahren wie das Newton-Verfahren weiterhelfen. Im folgenden geht es um die Frage, wieviele Nullstellen ein Polynom n-ten Grades besitzt und wie man schon gefundene Nullstellen aus Polynomen abspalten kann, um dann die restlichen Nullstellen in einem eventuell einfacher zu behandelnden Polynom niedrigeren Grades suchen zu können.
Satz 3.2 Besitzt ein Polynom Pn vom Grade n � 1 eine reelle Nullstelle xi, so existiert ein Polynom Pn -I vom Grade n - 1 mit Pn (x) = (x - XI) · Pn.-I (x) . (x - xi) heißt Linearfaktor. Bemerkung 3.4 Pn -I läßt sich dann aus Pn und (x - X I) durch die Polynomdivision
(ohne Rest) errechnen. Dabei sind die Nullstellen von Pn bis auf XI auch Nullstellen von Pn-I · X I wird auf diese Weise abgespalten . Satz 3.3 (Linearfaktorzerlegung) Ein Polynom Pn vom Grade n > 1 besitzt r reelle Nullstellen xi , x 2 , . . . , X r mit 0 � r � n und damit die Zerlegung Pn (x) = (x - x! ) (x - x 2) . . · (x - X r ) Pn -r (x) , ·
wobei Pn -r ( x) ein Polynom vom Grade
·
n
·
.
- r ohne reelle Nullstellen ist.
Bemerkung 3.5 Die Nullstellen müssen nicht voneinander verschieden sein. Stimmen Nullstellen überein, so nennt man diese mehrfache Nullstellen . Die Vielfachheit der Nullstelle gibt dann an, wie oft der zugehörige Linearfaktor in obiger Zerlegung auftritt. Satz 3.4 Ein Polynom Pn vom Grade n � 1 besitzt genau n reelle oder komplexe Null stellen. Ist z E C Nullstelle von Pn , so ist auch z E C Nullstelle von Pn .
1. Der letzte Satz bedeutet, daß in der Menge der komplexen ZahBemerkung 3.6 len - siehe Abschnitt 1.4 - jedes Polynom vollständig in Linearfaktoren zerfällt. Komplexe Nullstellen treten immer paarweise auf. 2.
Zwar gibt es für beliebige Polynome 3. und 4. Grades keine einfachen und für Po lynome vom Grade n � 5 überhaupt keine Nullstellenformeln. Aber gelegentlich ist die Struktur von Polynomen höheren Grades so einfach, daß man sie durch Trans formation auf ein Polynom 2. Grades reduzieren ka.nn. Um etwa die Nullstellen von P(x) = x4 + bx 2 + c zu erhalten, transformiert man P (x) zunächst mittels z ::\: x 2 zu P* (z) = z 2 + bz + c, dessen Nullstellen
�
ZI ,2 = - ±
� Gr
-c
lauten. Die Nullstellen von P( x) ergeben sich dann als
X 3 ,4 = ±ylz2
3.2. RATIONALE UND ALGEBRAISCHE FUNKTIONEN
31
3. Summe, Differenz, Produkt und Verkettung von Polynomen führen wieder zu Poly nomen. Das gilt i. a. nicht für die Division von Polynomen - a.usgenommen die Fälle mit geeigneter Linearfaktorzerlegung -, wodurch man auf die rationalen Funktionen des nächsten Abschnitts geführt wird. 3.2
Rat ionale und algebraische Funkt ionen
Da sich bei der Polynomdivision i.a. kein Polynom ergibt ( s.o. ) , sind rationale Funktionen die natürliche Verallgemeinerung von Polynomen. Besonderes Interesse verdient in dieser Funktionenklasse die Analyse der Definitionslücken.
Definition
3.3
Seien Pn und Q m Polynome. Dann heißt
f : D1 -+ R, rationale Funktion . Die Nullstellen von Q m (x) heißen Definitionslücken . Bemerkung 3.7 1. Polynome sind rationale Funktionen mit Q m (x) = 1 , Normalhyperbel und Stückfunktionen (siehe Kap. 2} sind rationale Funktionen mit Q m (x) = x .
2. Ist x0 Nullstelle von Pn (x) und Q m (x), so ist x0 eine behebbare Definitionslücke, denn der Linearfaktor (x - x0) läßt sich herauskürzen. Bei behebbaren Definiti onslücken wurde dieses Kürzen quasi nur 'vergessen'. Siehe dazu auch Abschnitt 4·4· 3. Ist x0 Nullstelle nur von Pn (x), so ist x0 auch eine Nullstelle von f(x) . 4. Ist x0 Nullstelle nur von Q m (x), so heißt x0 Polstelle oder Singularität . 5. Summe, Differenz, Produkt, Quotient und Verkettung von rationalen Funktionen
sind wieder rationale Funktionen.
Bemerkung 3.8 Zur Klasse der algebraischen Funktionen gehören alle Funktionen, die sich durch die algebraischen Operationen Addition, Subtraktion, Multiplikation, Di vision, Potenzierung und Radizierung (Wurzelziehen) aus der Identität erzeugen lassen. Polynome, rationale Funktionen, Wurzelfunktionen und ihre Verkettungen sind also alge braische Funktionen. Nicht-algebraische Funktionen heißen transzendent und sind das Thema der letzten Abschnitte dieses Kapitels. 3.3
Exp onent ialfunkt ionen und Logarithmen
Eine fundamentale Rolle z.B. in der Statistik oder in ökonomischen Wachstumsprozes sen spielt die Exponentialfunktion. Nicht weniger wichtig ist ihre Umkehrfunktion, die Logarithmusfunktion, die etwa bei Wachstumsraten in Abschnitt 10.8 oder bei der Ver einfachung von Gleichungen auftritt. Da zudem die Rechenregeln für diese beiden Punk tionenklassen i . a. nicht ausreichend beherrscht werden, ist dieser Abschnitt ein zentraler Teil des Vorkurses.
32
KAPITEL 3. ELEMENTARE FUNKTIONEN
Definition
3.4
/ : R -+ ( O, oo) , f (x) =a "' mit a>O , a:f:.1 heißt (allgemeine)
Exponentialfunktion
zur Basis a .
3.9 1. a > 0 , weil sonst z.B. für a = - 1 und x = 0 . 5 folgen würde: f ( 0.5) = A ft R. Ebenso wäre z.B. für a = 0 und x = - 1 der Funktionswert f( - 1 ) =o- l nicht definiert.
Bemerkung
2.
a :f:. 1, da sonst 1"' = 1 V x
3. Es genügt, den Fall a Definition
>
ER
eine nicht invertierbare Funktion ergeben würde.
1 zu betrachten, da
(�)"' =a-"' .
3.5 Der wichtigste Spezialfall
f : R -+ ( O, oo ) , f(x) =exp(x) :=e"' mit e = 2.718281 8 . .. heißt (natürliche)
Exponentialfunktion.
e heißt Eulersche
ER\ Q
Zahl.
Bemerkung 3.10 exp ist der Name einer Funktion (wie schon max und min), die vor schreibt, daß mit der Variablen x die Operation e"' auszuführen ist, während e einfach eine reelle Zahl ist, mit der man wie gewohnt rechnen kann. Die Schreibweise exp( ) wird z.B. verwendet, wenn in der Klammer ein längerer Ausdruck steht, der im Exponenten der Eu/ersehen Zahl schwer lesbar wäre. ·
Satz
3.5 (Eigenschaften) die Potenzrechnung:
1.
Die
Rechenregeln
ergeben sich aus den Regeln für
a"' . all =a"'+ll exp(x) · exp(y) =exp(x + y) �"' = a"'-!1 � =exp(x - y) _a (a"') 11 =a"''11 (exp(x) }ll =exp(x y) a-"' = 1 /a"' exp( -x) = .� ·
2.
Die Exponentialfunktion ist streng monoton steigend für a fallend für a < 1, also bijektiv und damit invertierbar.
>
1 und streng monoton
3.6 1. Die Umkehrfunktion zur (allgemeinen) Exponentialfunktion zur Basis a heißt Logarithmus(funktion) zur Basis a
Definition
f : (O, oo) -+ R, f(x) =log,.(x) mit a und y=log,.(x) 2.
#
>
x =a11
Wichtige Spezialfälle: (a)
Natürlicher Logarithmus: f (x) =log.(x) =: ln(x)
(b) Dekadischer Logarithmus: f(x) =log10 (x ) =: lg(x)
0, a :f:.1
3. 3. EXPONENTIALFUNKTIONEN UND LO GARITHMEN
(c}
Logarithmus dualis:
33
f(x) = log2 (x) =: ld(x)
Bemerkung 3.11 Der Logarithmus zur Basis a von x ist also die Zahl, mit der man a potenzieren muß, um x zu erhalten. Damit leuchten die ersten drei Punkte des folgenden Satzes sofort ein. Satz
9.
3.6
1 . x = ln(e"') = ld(2"') = lg(lO"') = loga(a"')
Für beliebiges (zulässiges) a gilt loga(I) = 0 und loga( a) = 1 .
4 · x E (0, I) A a > 1
=>
loga(x)
1 . 7. Bas1swec . hse1 .· 1og B (x) = � Jn( a ) = � ld( a ) lg( B ) = �
3.12 1 . Obige Verallgemeinerung der Rechenregeln verdeutlicht, wie etwa in der Optimierung (siehe Kapitel 1 1} Funktionen in der Form längerer Produkte - die i. a. schwierig abzuleiten sind - durch Logarithmierung in einfacher zu behan delnde Summen zu transformieren sind, wobei die Extrema wegen der Monotonie der Logarithmusfunktion nicht verändert werden.
Bemerkung
2.
Wegen der Basiswechselformel genügt ein Taschenrechner, der die Logarithmusfunk tion nur für eine Basis direkt berechnen kann, da der Logarithmus für jede weitere Basis dann einfach zu ermitteln ist.
9.
loga, In, lg und ld sind auch Namen von Funktionen (wie schon max, min und exp}, die vorschreiben, welche Operationen mit der Variablen x auszuführen sind, und keine reellen Zahlen! Die leider gelegentlich in Klausurlösungen anzutreffende Schreibweise ' IogB x ' ist daher großer Quatsch! ·
4 . Man präge sich obige Rechenregeln gut ein und beachte, daß etwa für loga(x ± y),
log B (x) logB (y) und log B (x)/ log B (y) keine Umformungsregeln angegeben wurden! Insbesondere gilt i. a. : loga(x + y) #- log B (x) + log B (y ) ·
34 3.4
KAPITEL 3. ELEMENTARE FUNKTIONEN
Trigonomet rische Funkt ionen
Die trigonometrischen Funktionen sind in der Ö konomie weit weniger wichtig als die Funktionen des vorigen Abschnitts. Aber nicht nur für die Winkelmessung benötigt man doch die Kenntnis einiger elementarer Zusammenhänge.
Bemerkung 3.13 Der Einheitskreis ist ein Kreis mit dem Mittelpunkt (0, 0) und dem Radius r = 1 . Sei P = (pt , p2 ) ein Punkt auf dem Einheitskreis und (0, 0) , P das Verbin dungsgeradenstück von (0, 0) und P . Der Winkel a zwischen dem positiven Teil der X Achse und (0, 0) , P im Nullpunkt läßt sich in Grad oder im Bogenmaß x (Streckenlänge auf dem Einheitskreis von ( 1 , 0) bis P im entgegengesetzten Uhrzeigersinn) angeben. Dabei gilt: 211" 0 mit 1r = 3. 1415927 . . . E R \ Q x=a 360 Man beachte, daß der Einheitskreisumfang U = 211" ist. ·
Grad 0 90 180 Bogenmaß x 0 1r /2
270
360
Definition 3.7 Mit den Bezeichnungen der einführenden Bemerkung definiert ma.n den Sinus von x (bzw. a) als sin : R --t [- 1 , 1] ,
sin(x) = Ordinatenwert von P
und den Cosinus von x (bzw. a) als cos : R --t [- 1 , 1] ,
cos(x) = Abszissenwert von P
Die Tatsache, daß beide Funktionen auf ganz R - und nicht nur auf dem Intervall [0, 211") - definiert werden können, wird in Bemerkung 3.16 erläutert.
Bemerkung 3.14 Achten Sie sehr darauf, daß ihr Taschenrechner auf das Bogenmaß eingestellt ist, wenn Sie trigonometrische Funktionen im Bogenmaß berechnen wollen! Bemerkung 3.15 Im rechtwinkligen Dreieck mit den Eckpunkten (0, 0), (p 1 , 0) und P hat die Hypotenuse (0, 0), P die Länge 1, so daß mit der Gegenkathete (pt , 0) , P und der Ankathete (0, 0), (p1 , 0) wie gewohnt gilt:
.
A nkathete Gegenkathete un d cos ( x ) = Hypotenuse Hypotenuse
Sln ( X ) = -==-----
Definition 3.8 Eine Funktion f : D1 wenn V x E DJ gilt: f (x+ T) = f (x)
--t
R heißt periodisch mit der Periode T > 0,
Bemerkung 3.16 Sinus und Cosinus sind periodisch mit T = 211", dem Umfang des Ein heitskreises. Daher ist es möglich, beide Funktionen - wie oben geschehen - auf ganz R zu definieren, denn in Bemerkung 3. 13 hängen die Lage des Punktes P auf dem Einheitskreis und damit auch der beschriebene Winkel und die Funktionswerte von Sinus und Cosinus nicht davon ab, ob man mit diesem Punkt P in beliebiger Richtung vorher 'einige Runden auf dem Einheitskreis gedreht hat '.
3.4. TRIGONOMETRISCHE FUNKTIONEN
Satz 3. 7 (Rechenregeln)
35
1 . Additionstheoreme :
sin(x ± y) = sin(x) cos(y) ± cos (x) · sin(y) ·
cos(x ± y) = cos(x) cos(y) ·
2.
=f
sin(x) sin(y) ·
Satz von Pythagoras : (sin(x ) ) 2+ (cos(x)) 2 = 1
3. sin ( x+ � ) = cos(x )
Bemerkung 3.17 Die letzte Rechenregel bewirkt, daß der Graph des Sinus durch einfache Verschiebung aus dem des Cosinus hervorgeht. Definition 3.9 tan : Dtan -+ R,
tan(x) :=
sin(x) cos(x)
I
{
mit Dtan = x E R x :f ( 2 k+ 1 ) � , k E Z 2
}
heißt Tangens von x, und cot : Dcot -+ R,
cos(x) cot (x) := -.s m( x )
-
mit Dcot = { x E R l x :f k7r , k E Z }
heißt Cotangens von x . Bemerkung 3.18 1 . Der Tangens hat also die Nullstellen des Sinus und Polstellen in allen Nullstellen des Cosinus. 2.
Es gilt: cot(x) = t.U:(x) für X
E ( Dtan n Dcot) · Daher ist der Cotangens unbedeutend.
3. Im rechtwinkligen Dreieck mit den Eckpunkten (0, 0), (pt , 0) und P und der Gegen kathete (Pt . 0), P sowie der Ankathete (0, 0) , (p1 , 0) gilt wie gewohnt: Gegenkathete tan ( x ) = ---,=-:---:-- Ankathete Daher wird der Tangens eines Winkels auch als Steigungsmaß verwendet - siehe Abschnitt 5. 1 . 4. Tangens und Cotangens sind periodisch mit T = 1r . Beschränkt man sich auf Intervalle, in denen die trigonometrischen Funktionen streng monoton sind, so kann man die jeweiligen Umkehrfunktionen, die Arcusfunktionen, definieren, die etwa bei der Winkelmessung Verwendung finden.
Definition 3.10 nus 2.
1. Die Umkehrfunktion von sin :
[
[ -�, �]
-+ [- 1 , 1] heißt Arcussi
]
arcsin .· [- 1 ' 1] -+ - � ' � 2 2 Die Umkehrfunktion von cos : [0, 1r] -+ [ - 1 , 1] heißt Arcuscosinus arccos : [- 1 , 1] -+ [0, 1r ]
3. Die Umkehrfunktion von tan :
( -�, �) -+ R heißt Arcustangens arctan : R -+
(- i, i )
Kapitel 4 Folgen , Reihen , Grenzwerte , Stetigkeit 4.1
Folgen und Reihen
Folgen und Reihen spielen eine zentrale Rolle in der Finanzmathematik. Eine besondere Bedeutung haben dabei die arithmetische und vor allem die geometrische Folge/Reihe. Aber auch in vielen anderen Bereichen der Ö konomie gewinnen etwa intertemporale Be trachtungen an Bedeutung, bei denen zukünftige Zahlungen durch Abzinsung mit heutigen Zahlungen vergleichbar gemacht werden und in denen unendliche Reihen von Zahlungs strömen analysiert werden.
R heißt Folge. a n := f(n) heißt n-tes ( a n ) n eN = ( a 1 , a 2 , a 3 , . . ) wenn es eine bijektive Abbildung t/1 : N -t M
Definition 4.1 1 . Eine Funktion f : N -t Folgenglied und n Index. Schreibweise: 2.
Eine Menge M heißt gibt.
abzählbar,
.
4.1 Eine Folge ist also ein einfacher Spezialfall einer Funktion mit einem abzählbaren Definitions- und damit auch Wertebereich. Der Graph einer Folge ist eine Menge von isolierten Punkten im R2 • Der Definitionsbereich einer Folge darf auch N0 oder eine andere abzählbare Menge sein. Schließlich sind auch endliche Mengen als Defi nitionsbereich zulässig, wodurch man eine endliche Folge erhält.
Bemerkung
Definition
mit
4.2
1 . Eine Folge heißt arithmetische Folge, wenn ein k E R existiert
Eine Folge heißt geometrische Folge, wenn ein k E R existiert mit a n+ l k = Vn E N an Bemerkung 4.2 1. Das Bildungsgesetz der arithmetischen Folge lautet: 2.
a n = ad � ( n - 1 ) k = ( a 1 - k)+ k n ·
"
·
'
Damit ist die arithmetische Folge ein Folgen-Analogon zur affin-linearen Funktion.
38
KAPITEL 4. FOLGEN, REIHEN, GRENZWERTE, STETIGKEIT 2. Das Bildungsgesetz der geometrischen Folge lautet:
Die geometrische Folge ist dann ein Folgen-Analogon zur Exponentialfunktion. Definition 4.3 1 . Sei oder Teilsummen
(an ) n eN
eine Folge. Die Folge
(s n ) n eN
der Partialsummen
n Sn : = L ai i= l
heißt Reihe .
(an ) n eN eine arithmetische Folge, so heißt {s n ) n eN arithmetische Reihe. Ist (a n ) n eN eine geometrische Folge, so heißt (s n ) n eN geometrische Reihe.
2. Ist
3.
Bemerkung 4.3 Man erhält Reihen aus Folgen durch Summenbildung und Folgen a.us Reihen durch Differenzenbildung, denn es gilt a 1 = s 1 und a n+ I = S n+ J - S n V n E N .
) L...
fx- ln(g(x ) ) =
�(:?
Schließlich werden höhere Ableitungen eingeführt, die etwa für hinreichende Bedingungen in der Optimierung in Abschnitt 1 1 .3 benötigt werden.
51
5.3. REGEL VON DE L 'HOPITAL
Bemerkung 5.6 Die Ableitungsfunktion f' einer Funktion f ist selbst eine Funktion, also eventuell auch differenzierbar. Daher ist die folgende Definition sinnvoll: Definition 5.5 Ist !' : D f '
-+
R in Xo E
n,,
differenzierbar, so heißt
J"(x) j(x) .!:_ dx f'(x) :=
=
zweite Ableitung. Entsprechend definiert man für n = 3, 4, . . . die n-te Ableitung
/ (n) .!:._ /(n- l ) (x) dx j(x) f (x) d:f (x) f'(x) J(l l (x) f"(x) j(x) d�2 f( x) f(nl (x) d�.. f (x) :=
Schreibweise:
=
=
=
=
=
Bemerkung 5. 7 renzierbar . Regel
5.3
n
kann beliebig groß werden. Man nennt dann f unendlich oft diffe
von
de l ' Höpital
Bei der Herleitung der Formel für die stetige Verzinsung in der Finanzmathematik oder bei der Beschreibung der Zusammenhänge der zwei bekanntesten ökonomischen Funktionen in Abschnitt 10. 1 treten unbestimmte Ausdrücke auf, die durch die Regel von de l'Hopital bestimmt werden können.
Satz 5.7 (Typ � ) 1 . Seien die Funktionen f und g in einer Umgebung Xo E R differenzierbar mit g' (x) #- 0 in u;(xo). Ist lim
zo-+.:r: o
f (x)
=
lim
:r:-+zo
g(x)
=
0 und existiert
lim
.,_.,.
Ue(xo)
von
f' (x) g' (x)
als endlicher oder eventuell uneigentlicher Grenzwert, so gilt:
2. Sei a V
x
>
>
f (x)
f'(x) g' (x) 0 und seien die Funktionen f und g V x a differenzierbar mit g'(x) -:f:. 0 lim
"'-"'•
g(x)
=
lim
"'-"'•
>
a . Ist
lim
Z-+00
f (x)
=
lim
Z -+ 00
g(x)
=
0 und existiert
lim
X -+ 00
als endlicher oder eventuell uneigentlicher Grenzwert, so gilt:
f' (x)
g ' ( X)
52
KAPITEL 5. DIFFERENTIALRECHNUNG
3. Sei b Vx
a differenzierbar mit g'(x) -:f 0 =
lim
:c -+ :co
:c -+ :co
2. Sei a > 0 V x > a . Ist
lim
Z -+ 00
f(x)
=
lim
X -+ 00
g(x)
=
±oo
und existiert
lim
X-+00
f'(x) g'( X )
als endlicher oder eventuell uneigentlicher Grenzwert, so gilt:
f'(x) f(x) g(x) lim g' (x) Sei b < 0 und seien die Funktionen f und g V x < b differenzierbar mit g'(x) -:f 0 V x < b. Ist f' ( ) lim f(x) lim g(x) ±oo und existiert lim g' (x) =
lim
:c -+ oo
3.
x -+ - oo
=
x -+ - oo
x -+ oo
=
x -+ - oo
x
als endlicher oder eventuell uneigentlicher Grenzwert, so gilt: lim
:c -+ - oo
f(x) g( ) x
=
lim
:c -+ - oo
f'(x) g ' (x)
Bemerkung 5.9 Unbestimmte Ausdrücke vom Typ 0 · oo, 1 00 , 0°, oo 0 und oo - oo kann man durch stetige Transformationen auf Ausdrücke vom Typ � oder � transformieren und dann mit obigen Sätzen bearbeiten.
Teil II Lineare Algebra
Kapitel 6 Vektorrechnung 6.1
Vekt oren
In vielen Teilen der Ö konomie gibt es Sachverhalte, die nur durch die Angabe mehre rer Maßzahlen ausreichend beschrieben werden können. Ebenso gibt es viele ökonomi sche Variablen, die in ähnlicher Weise bei verschiedenen Individuen, Firmen, Haushalten, Ländern, etc. beobachtet werden können. In beiden Situationen ist es praktisch, diese zusammengehörigen Einzelgrößen zu Paaren, Tripein oder allgemein n-Tupeln zusam menzufassen, was in diesem Abschnitt formalisiert wird.
Definition 6.1 2. Seien
x1 ,
1.
Eine Zahl r E R heißt Skalar.
. . . , X n E R. Dann heißt das geordnete n- Tupel
(n-dimensionaler) (Spalten-)Vektor x E R n und (n-dimensionaler) Zeilenvektor mit den n Komponenten x 1 , . . . , X n . Bemerkung 6.1 1. Ein Vektor definiert geometrisch einen Punkt im R n , die Komponenten definieren die Koordinaten dieses Punktes. 2. xT heißt der zu x transponierte Vektor. Die Transposition wird erst im nächsten
Kapitel größere Bedeutung erlangen.
Definition 6.2 Für zwei Vektoren x, y E R n gilt:
x=y x =f. y x�y x .
den Zeilenraum von A und . . , a,.)
den Spaltenraum von A. d i m ( ZR) heißt Zeilenrang und dim ( SR ) Spaltenrang von A.
69
7. 3. RANG UND INVERSE
Zeilenraum und Spaltenraum einer Matrix sind zwar i . a. voneinander verschieden, aber die Dimension dieser Räume muß identisch sein. Daher macht die folgende Definition des Rangs einer Matrix Sinn.
Satz 7.8 Sei A E Mm, n · Dann gilt: dim( ZR)
=
dim(SR)
=:
rg(A)
genannt Rang von A . Satz 7.9 Sei A E Mm, n · Dann gilt: rg(A)
=
rg(AT) :5 min{ m, n }
Nun wird mit dem Gaußsehen Eliminationsverfahren eine Methode eingeführt , die u.a. auch dazu dient , den Rang einer Matrix zu bestimmen. Wesentlicher Bestandteil des Verfahrens sind sogenannte elementare Zeilenumformungen.
Definition 7.12 Sei A E Mm, n mit den Zeilenvektoren a� , . . . , a:" und r E R \ { 0} . Unter den elementaren Zeilenumformungen von A verstehen wir für i , j = 1 , . . , m 1 . di< Multiplikation dor i-ten z,i/, mit "
() ( ) �
�
a: 2. die Addition der j-ten Zeile zur i-ten Zeile:
.
,a;
a: + aj
1-+
aj
aj
a:
3. die Addition der r-fachen j-ten Zeile zur i-ten Zeile:
1-+
aj
aj
a:
.f. Vertauschen der j-ten Zeile mit der i-ten Zeile: aj
1-+
a: + r aj
aj a:
Bemerkung 7.10 Die elementaren Zeilenumformungen 3. und 4. entstehen durch wie derholte Anwendung von 1. und 2.
70
KAPITEL 7. MATRIZENRECHNUNG
Satz 7 . 1 0 Die 4 elementaren Zeilenumformungen von A E Mm, n mit r E R \ {0} lassen sich durch Matrixprodukte U;A mit den Elementarmatrizen U; E M m mit i = 1, 2, 3, 4 beschreiben. Dabei erhält man - in gleicher Reihenfolge wie die elementaren Zeilenumfor mungen mit gleichem i, j E { 1 , . . . , m} 1.
u l aus der Einheitsmatrix I E Mm mit der nachfolgenden Setzung
Uii :=
r.
2 . u 2 aus der Einheitsmatrix I E M m mit der nachfolgenden Setzung
Uij :=
1.
3. u3 aus der Einheitsmatrix I E M m mit der nachfolgenden Setzung Uij := r. 4- U4, auch Permutationsmatrix genannt, aus der Einheitsmatrix I E Mm mit den nachfolgenden Setzungen u;; := Ujj := 0 und Uij := Uj i := 1 . Bemerkung 7 . 1 1 Die elementaren Zeilenumformungen verändern wegen Satz den Zeilenraum von A. Daher gilt:
6. 9
nicht
Satz 7.1 1 Seien A, B E Mm,n · Ist B durch endlich viele elementare Zeilenumformungen aus A entstanden, so gilt: rg( A) = rg(B) . Definition 7 . 13 Das Gaußsehe Eliminationsverfahren - zunächst in verkürzter Form - besteht darin, eine Matrix A E M m , n durch endlich viele elementare Zeilenum fo7·mungen in eine Matrix
1 ... B=
*
1 ...
1 ... 0
1 ...
von Zeilenstufenform zu transformieren, wobei die ersten p Zeilenvektoren h; , . . . , b� keine Nullvektoren sind, die übrigen Zeilenvektoren b�+ l , . . . , b:n hingegen alle. Die Kom ponenten links und unterhalb der 'Einsen-Stufenlinie ' von B sind gleich Null und die Komponenten rechts und oberhalb davon sind beliebig, was durch das Symbol * bezeichnet wird. Die 'Stufenkomponente ', die im i-ten Schritt zu, Eins wird, nennt man Pivotele ment oder Pivot, dessen Zeile Pivotzeile und dessen Spalte Pivotspalte . Satz
7. 1 2
1. Jede Matrix A E M m, n läßt sich durch endlich viele elementare Zeilenumformungen in eine Matrix B E M m, n in Zeilenstufenform überführen.
2. Sind h; , . . . , b� die ersten p Zeilenvektoren von B, so ist {b� , . . . , b�} eine Basis
des Zeilenraums ZR(B ) .
3. rg(A ) = rg(B) = p. Bemerkung 7 . 1 2 Zu Vektoren a b . . . , am E Rn bestimmt man also ezne Basis von Sp an( a1 , . . . , am ) , indem man die Vektoren als Zeilenvektoren in eine Matrix einträgt und diese auf Zeilenstufenform bringt. Die vom Nullvektor verschiedenen Zeilenvektoren bilden dann die gesuchte Basis.
71
7. 3. RANG UND INVERSE
Damit ist nun vollständig geklärt, was Regularität ist und wie man sie bei einer Matrix nachweist.
Satz 7. 13 A E M n ist genau dann regulär, wenn rg ( A ) = vollen Rang besitzt.
n
ist,
m
Worten: wenn A
Bemerkung 7.13 1. Ein erstes Verfahren zur Berechnung der Inversen einer Matrix A E M n verwendet ein {etwas verlängertes) Gaufisches Eliminationsver.fahren: Konstruiere die Blockma.trix D E M n, 2 n mit D : = (A ll) und I E M n und versuche, die linke Untermatrix A durch elementare Zeilenumformungen in I zu überführen. Ist A regulär, so gelingt dieses, da
ist, wobei die rechte Untermatrix in A - 1 überführt wird. Ist A singulär, so gelingt dieses nicht, was daran zu erkennen ist, daß eine ganze Zeile der linken Untermatrix zum Nullvektor wird. Bei diesem Verfahren geht ein, daß man elementare Zeilenv.m formungen durch Multiplikation mit Elementarmatrizen beschreiben kann, denn die Inverse A - 1 wird als Produkt von Elementarmatrizen erzeugt. 2. Ebenso kann man für reguläres A E Mm und X, B E Mm,n Matr·izengleichungen der Form AX = B dUI·ch X = A - 1 B lösen: Konstruiere die Blockma.trix D E Mm,m +n mit D : = (A l B ) und versuche, die linke Untermatrix A durch elementare Zeilenumformungen in I zu überführen. Ist A regulär, so gelingt dieses, da A - 1 (A I B ) = (A - 1 A I A - 1 B ) = (I I A - 1 B ) = (I I X) Nun kommen wir zu einigen Rechenregeln für inverse Matrizen.
Satz 7.14 Seien A, B E M n regulär und r # 0 . Dann gilt: 1.
(A - 1 ) - 1 = A
2. (AT) - 1 = (A - 1 f
3. (ABt1 = B - 1 A - 1 4- ( r A) - 1 = �A - 1 5.
Die Inverse der Diagonalmatrix A mit Diagonalelementen a;; ist auch diagonal mit den Dia.g onalelementen a�; .
6. I - 1 = I Schließlich wird am zweiten Punkt des folgenden Satzes zum ersten Mal der Nutzen der in der Praxis öfter anzutreffenden Blockstrukturen deutlich.
KAPITEL
72 Satz 7.15
1. Ist
A E Mn
7.
MATRIZENRECHNUNG
eine reguläre Blockmatrix der Form
und sind An und C : = A 22 - A 2 1A!l A1 2 auch regulär, so gilt:
2. Für A1 2 =
A 2 1 = 0 reduziert sich die Inverse auf 0 A - 1 = A0!l A?}
(
)
Kapitel 8 Lineare Gleichungssysteme Eine der wichtigen Aufgaben der linearen Algebra ist die Lösung linearer Gleichungssy steme. Zunächst kann man diese durch Matrizen sehr kompakt darstellen. Dann dient das Gaußsehe Eliminationsverfahren zur Bestimmung der Lösung, die schließlich mit Linear kombinationen vollständig beschrieben werden kann.
Definition 8.1
1 . Ein Gleichungssystem
a u x 1 + a 12 x 2 + a 2 1 x 1 + a 22 x 2 +
+ a 1 nX n = bl b2 + a 2n X n
bm a m1 X 1 + a m 2 X 2 + . . . + a m n X n heißt lineares Gleichungssystem, kurz: LGS, mit m Gleichungen und n Varia blen x 1 , , X n sowie den vorgegebenen Koeffizienten a;j, b; E R für i = 1 , . . . , m und j = 1 , . . . , n . Man spricht von einem homogenen linearen Gleichungssy stem, kurz: HLGS, falls b 1 = . . . = bm = 0, andernfalls von einem inhomogenen linearen Gleichungssystem, kurz: ILGS . • • •
2. Mit
wobei A E M m, n Koeffizientenmatrix, b E Rm Konstantenvektor und x E R" Lösungsvektor genannt wird, kann man ein LGS in der Form Ax = b
schreiben. Dabei enthält die erweiterte Koeffizientenmatrix a�l (A l b) := : aml alle gegebenen Größen des L GS.
(
L
:= { x E R" I Ax = b}
heißt Lösungsmenge des L GS.
8.
KAPITEL
74
LINEARE GLEICHUNGSSYSTEME
Bemerkung 8.1 Die elementaren Zeilenumformungen aus Def. 7. 12 der Matrix ( A l b ) , die - siehe Bem. 7. 1 1 - den Zeilenraum von ( A l b ) nicht verändern, entsprechen folgenden Umformungen des LGS (mit i , j = 1 , . . , m und r E R}, die dessen Lösungsmenge nicht verändern: .
1. Multiplikation einer Gleichung mit r . 2 . . Addition der j-ten Gleichung zur i-ten Gleichung.
3. Addition der r-fachen j-ten Gleichung zur i-ten Gleichung. 4. Vertauschen der j-ten Gleichung mit der i-ten Gleichung. Wir nehmen noch die Vertauschung der i-ten mit der j-ten Spalte der Matrix A hinzu., die der Vertauschung der Variablen x; und x ; (mit Koeffizienten} entspricht. Bemerkung 8.2 Die Varianten und Probleme bei der Lösung eines LGS werden schon bei m = 1 Gleichung und n = 1 Variable, also ax = b mit a, b E R deutlich: � . a
1. Für a =f. 0 gibt es genau 1 Lösung x =
2. Für a = 0 und b =f. 0 gibt es keine Lösung.
3. Für a = b = 0 gibt es unendlich viele Lösungen x E R. Auch für ( m , n ) =f. ( 1 , 1 ) gibt es nur diese drei Möglichkeiten: Keine, genau eine oder unendlich viele Lösungen. Satz 8.1 Sei Ax = b ein LGS mit A E M m,n · Dann läßt sich die erweiterte Koeffizi entenmatrix ( A l b ) durch elementare Zeilenumformungen von (A l b) und Spaltenvertau schungen von A stets in eine der folgenden Formen (.Ä. I b) überführen:
( � � . . . � �2 1 0 . . . 0 bt
1 . (A l b) =
0 0 . . . 1 bn
J
mit m = n und den Basisvariablen (kurz: BV) x1 ,
2. ( A lb ) =
mit
m
>
n
1 0 0 1
0 0
0 0 0 0
1 bn 0 bn +l
0 0
0
b2 bl
bm
und den Basisvariablen x1 ,
.
.
•
, Xn .
•
.
.
, Xn .
75
mit m < n und den Basisvariablen x � , . . . , Xm sowze den Nichtbasisvaria blen (kurz: NBV} Xm +l • · · · • X n •
4. (AJb) =
bl 62
1 0 0 1
0 ih ,p+l 0 a2 ,p+l
aln a2n
0 0 0 0
1 ap ,p+l 0 0
apn bp 0 bp+l
0 0
0
0
0
bm
mit p < min{ m, n} und den Basisvariablen .7: 1 , . . . , Xp sowie den Nichtbasisvariablen xp+t , . . . , x n . Wir nennen also die Variablen Basisvariablen, in deren Spalten der Matrix A durch das Gaußsehe Eliminationsverfahren eine Pivot-Eins erzeugt worden ist. Die übrigen Variablen heißen Nichtbasisvariablen.
Bemerkung 8.3
Es folgen die wichtigen Rangbedingungen zur Lösbarkeit eines LGS.
Sei Ax = b ein LGS mit A E Mm 'n und der erweiterten Koeffizientenmatrix (AJb) bzw. (.AJb) . Dann gilt:
Satz 8.2
1 . rg(A) = rg(A) 2. rg(A Jb)
3. rg{A)
$
=
rg(.A Jb)
rg(A J b)
4 . rg(A) < rg(AJb) Ax = b nicht lösbar. 5. rg(A) = rg(A Jb) Ax = b lösbar.
6. rg(A) = rg(AJb) = n Ax = b eindeutig lösbar.
Für die Lösbarkeit von Ax = b folgt aus der Form von (.AJb) (in gleicher Reihenfolge wie in Satz 8. 1) :
Bemerkung 8.4
1 . Hier existiert immer die eindeutige Lösung
da rg(A) = rg(A Jb) = n .
KAPITEL
76
8.
LINEARE GLEICHUNGSSYSTEME
2. Hier existiert die gleiche eindeutige Lösung nur, wenn bn+l = . . . = bm = O
da nur dann rg(A) = rg(Aib) = n . Sonst ist rg(A) < rg(Aib) und das ILGS ist unlösbar, da es überbestimmt ist (mehr Gleichungen als Variablen) . 3. Hier existiert immer eine Lösung, da rg(A) = rg(A ib), z.B. Xt = bt , . . . , Xm = bm , Xm + t = . . . = X n = 0 A
A
Diese ist aber i. a. nicht mehr eindeutig, da rg(A) = rg(Aib) < n, das ILGS also unterbestimmt ist (weniger Gleichungen als Variablen) . Mit der vollständigen Angabe der Lösungsmenge befassen wir uns weiter unten. "(.. Hier existiert eine Lösung auch nur, wenn da nur dann rg(A) = rg(A ib) . Sonst ist rg(A) < rg(A ib) und das /LGS ist unlösbar. Die eventuelle Lösung ist zudem i. a. nicht mehr eindeutig, da dann rg(A) = rg(Aib) = p < n Bemerkung 8.5 Sei Ax = b ein lösbares LGS mit A E M m , n und rg(A) = rg(Aib) = p < n . Dann sind n - p Komponenten des Lösungsvektors x E Rn frei wählbar. Es gibt daher unendlich viele Lösungen, die im folgenden beschrieben werden sollen. Dazu bearbeiten wir zunächst den einfacheren Sonderfall des HLGS, in dem b = 0 gilt. Satz 8.3 Sei Ax = 0 ein HLGS mit A E M m,n · Dann gilt: 1 . rg(A)
=
n
{=::::} Ax = 0 eindeutig lösbar durch x = 0 .
< n {=::::} A x = 0 lösbar durch x = 0 sowie durch weitere n - p linear unabhängige Lösungsvektoren x 1 , , Xn -p E Rn , so daß jede Lösung von der Form
2. rg(A) = p
•
.
•
allgemeine Lösung des HLGS genannt, ist und r 1 ,
•
•
•
, rn - p E R sind.
3. Insbesondere ist ein HLGS also (durch x = 0) immer lösbar. Bemerkung 8.6 Gilt rg(A) = n , so ist die Lösungsmenge des HLGS Ax = 0 der (0dimensionale) Nullvektorraum. Die Lösungsmenge eines HLGS mit rg(A) = p < n hin gegen bildet einen ( n - p) -dimensionalen Untervektorraum des Rn . Um alle Lösungen des Systems zu ermitteln, benötigt man eine Basis, für die es aber unendlich viele Möglichkei ten gibt. Daher wird hier eine Konvention eingeführt, wie diese Basis eindeutig zu wählen ist. ( n - p) Komponenten jedes Basisvektors x E Rn sind frei wählbar. Daher setze man den Teilvektor der Nichtbasisvariablen
77
der Reihe nach mit den ( n - p) Einheitsvektoren des Rn - p gleich, was u.a. die lineare Unabhängigkeit der Basisvektoren garantiert, und bestimme daraus jeweils die .fehlenden Komponenten x1,k , . . . , Xp, k , k = 1, . . . , n - p, des jeweiligen Basisvektors. Man erhält so folgende Lösung des HLGS:
L = Xo E Rn Xo = r 1
xp , l 1 0
+ . . . + rn - p
Xp ,n - p 0 0
, r 1 , . . . , rn -p E R
1
0
Die Komponenten x1,k, . . . , Xp ,k , k = 1 , . . . , n - p, sind im übrigen bis auf einen Vorzei chenwechsel direkt aus der Matrix (A l b) abzu.lesen. Bemerkung 8.7 Die Lösungsmenge eines HLGS ist immer ein Vektorrrwm, enthält also immer den Nullpunkt. Die Lösungsmenge eines IL GS Ax = b mit b -1- 0 ist kein Vektor raum, da sie den Nu.llpunkt NICHT enthält, sondern ein affiner Vektorraum, also ein verschobener Vektorra.um, der zu diesem 'ähnlich ' ist. Daher spricht man bei Geraden, Ebenen, etc. auch von affin-linearen Funktionen, da nur die Geraden, Ebenen, etc. durch den Nullpunkt wirklich linear im strengen mathematischen Sinne sind - siehe Abschnitt 9. 1 . Man erhält also jetzt die Lösungsmenge eines ILGS, indem man die Lösungsmenge des zugehörigen HLGS verschiebt. Dieses geschieht mit einer speziellen Lösung des ILGS, also mit einem Punkt, der auf diesem verschobenen Raum liegt. Wiederum gibt es dabei unendlich viele Möglichkeiten, so daß auch hier nur durch Konvention ein eindeutiger Weg festgelegt werden kann. Satz 8.4 Sei Ax = b ein ILGS mit A E Mm, n und rg(A) = rg(A jb) = p < n. Hat jede Lösung des HLGS Ax = 0 die Form Xo = r 1 X 1 + . . . + rn - pXn -p und ist x' eine spezielle Lösung des ILGS, so hat jede Lösung des ILGS die Form x. = x' + Xo = x' + r 1 X1 + . . . + rn - pXn-p mit rt , . . . , rn - p E R . Bemerkung 8.8 Die per Konvention festgelegte spezielle Lösung x' E Rn des ILGS erhält man aus Ax = b durch Nullsetzung der Nichtbasisvaria.blen x1 : = bt , . . . , xv := bv , xv+ l := . . . : = xn := 0 Die Lösung des ILGS lautet somit mit rt , . . . , rn - p E R:
L = x. E Rn x. =
bp 0 0 0
+ r1
xp,l 1 0 0
+ . . . + rn - p
X p,n - p 0 0 1
Kapitel
9
Eigenwertprobleme 9.1
Lineare Abbildungen
In diesem Kapitel werden nur quadratische Matrizen betrachtet , für die dann Det.ermi nanten, Eigenwerte und quadratische Formen eingeführt werden. Zum wirklichen, an schaulichen Verständnis der ersten beiden Begriffe sind aber einige Grundkenntnisse der Theorie linearer Abbildungen unerläßlich, die in diesem Abschnitt vermittelt werden sol len. Lineare Abbildungen des Rn ( in den Rn ) sind genau die Abbildungen, die sich durch Multiplikation von Vektoren ·des Rn mit Matrizen A E M n beschreiben lassen. Daher dienen die Eigenschaften der Matrizen zur Beschreibung der Eigenschaften der Abbildun gen.
Definition 9.1 Eine Abbildung f : Rn -+ Rn mit Urbildern x E Rn und Bildern f(x) E Rn heißt linear, wenn ein A E M n existiert mit f (x ) = Ax .
y
=
Bemerkung 9.1 Die linearen Abbildungen f : R -+ R sind demnach genau die Abbildun gen f(x) = ax mit a E R, also - in der gewohnten Darstellung im R2 - die Gera.den durch den Nullpunkt. Man kann sich diese Abbildungen, da hier Definitionsbereich und Bildbe reich identisch sind, aber auch nur auf der reellen Zahlenachse als Streckungen (a > 1}, Stauchungen (0 < a < 1) oder Spiegelungen (a < 0) aller Punkte in R veranschaulichen. Diese Vorgehensweise, die sich also von der in Vorkurs und Analysis unterscheidet, soll in diesem Kapitel NUR gewählt werden. Bei den zur Veranschaulichung im weiteren nur verwendeten linearen Abbildungen des R2 in den R2 geht es also darum, wie alle Punk te des R2 durch lineare Abbildungen gestreckt, gestaucht, gespiegelt oder gedreht werden. Man vergleiche auch Abschnitt J0.4 zu einer weiteren Art der Veranschaulichung von Abbildungen. Satz .9.1 Eine Abbildung f : Rn -+ Rn ist genau dann linear, wenn 'V x 1 1 x 2 E Rn und r 1 , r2 E R gilt: Satz 9.2 Seien f : Rn -+ Rn , f (x) = Ax , A E M n g : Rn -+ Rn , g(x) = B x , B E M n
lineare Abbildungen. Dann gilt:
KAPITEL 9. EIGENV'lERTPROBLEME
80 1.
f = g Rn ist linear mit (f + g) (x) = (A + B )x 3. f - g : Rn ---> Rn ist linear mit (f - g) (x) = (A - B )x 4 . g o f : Rn ---> Rn ist linear mit (g o f)(x) = BAx Bemerkung 9.2 Bei den linearen Abbildungen f : R ---> R, f(x) = ax mit a E R könnte auch a = 0 - was in obiger Bemerkung fehlt - gelten, wodurch jedes x E R auf f(x) = 0 (den 0-dimensionalen Nullvektorraum) abgebildet würde. Dann wäre aber rg ( a) = 0, was nach dem folgenden Satz hinreichend und notwendig für das degenerierte Verhalten der Abbildung ist, denn f ist genau dann bijektiv, wenn a =f. 0 gilt. Satz 9.3 Sei f : Rn ---> Rn , f(x) = Ax mit A E M n eine lineare Abbildung. Dann ist f bijektiv Rn (f o r 1 ) (y) = AA - 1 y = Iy = y f- 1 0 f : Rn ---> Rn u- 1 0 f) (x) = A- 1 Ax = Ix = X Bemerkung 9.5 Bei de � bijektiven linearen Abbildungen f : R2 ---> R2 , f(x) = Ax gibt es die folgenden wichtigen Grundtypen, jeweils durch A E M 2 beschrieben: 1.
Identität : I =
(� �)
Die Identität bildet alle Punkte des R2 auf sich selbst ab. 2. Streckungen/Stauchungen : As : =
(� �)
,a>0
Die Streckung (a > 1) streckt alle Punkte des R2 mit dem Faktor a weg vom Null punkt. Die Stauchung (a < 1) staucht alle Punkte des R2 mit dem Faktor a hin zum Nullpunkt. 3.
Geradenspiegelungen : Aat : =
( � �1 )
,
Aa2 : =
( �1 � )
Geradenspiegelungen spiegeln alle Punkte des R2 an einer Geraden. Diese Stan dardformen spiegeln an der Abszisse (Aat) bzw. Ordinate (A G2 ) ·
81
9.2. DETERMINANTEN 4 . Punktspiegelungen : Ap : =
( �1
�1 )
Punktspiegelungen spiegeln alle Punkte des R 2 an einem Punkt. Diese Standardform spiegelt am Nullpunkt. 5.
Drehungen : AD : =
( -coss1n. ( a( a) )
sin ( a ) cos ( a )
) , a E [0, 211" )
Diese Drehung dreht alle Punkte des R2 mit dem Winkel a im Uhrzeigersinn um den Nullpunkt. Ein Vorzeichenwechsel auf der Nebendiagonalen von AD liefert die Drehung gegen den Uhrzeigersinn. Diese - und noch weitere - Grundtypen gibt es auch bei den bijektiven linearen Abbildun gen f : Rn ----> Rn mit n ? 3, die man durch Matrizenmultiplikation, also die Verkettung linearer Abbildungen - siehe Satz 9. 2 -, noch kombinieren kann. Zudem wird in Abschnitt 9. 3 ausführlich betrachtet, wie ein 'ungünstiges ' Koordinatensystem den eventuell sehr einfachen Typ einer Abbildung verdecken kann. Es ist also i. a. sehr schwierig, einer be liebigen regulären Matrix A E M n anzusehen, wie sie auf die Vektoren x E Rn wirkt . Daher geht es in den nächsten Abschnitten darum, Kenngrößen für gewisse Eigenschaf ten quadratischer Matrizen und ihrer Wirkung zu entwickeln. In gewissen Fällen ist man auch in der Lage, ein Koordinatensystem zu ermitteln, das zwar i.a. verschierlen von der kanonischen Basis ist, aber dafür die Wirkung der betrachteten Matrix einfach ablesen läßt. 9.2
D et erminant en
Determinanten dienen u.a. zur Berechnung der Eigenwerte von Matrizen im nächsten Abschnitt . Die in vielen Büchern erwähnte Anwendung von Determinanten in der Gra mersehen Regel zur Lösung mancher linearer Gleichungssysteme ist in der Praxis aber völlig bedeutungslos und wird hier daher nicht betrachtet . Interessanter ist dagegen das folgende: Geometrisch gesehen - näheres dazu am Ende dieses Abschnitts - ist die Determinante ein Maß für die 'Volumenverzerrung' , die durch die Wirkung einer Matrix auf die Punkte eines Rn erzeugt wird. So treten z . B . in den multivariaten Verfahren, die in der Statistik oder auch im Marketing vorgestellt werden, viele Matrizen auf, die die aus empirischen Daten für gewisse Zwecke gewonnene Infor mation enthalten. Diese Matrizen dürfen dann von den eingesetzten Algorithmen nur so transformiert werden, daß diese Information nicht verändert wird, was gleichbedeutend damit ist , daß man diese Matrizen nur mit. Matrizen mit Determinante Eins multiplizieren darf. Die nun folgende Rechenvorschrift für Determinanten, genannt. Laplacescher Entwick lungssatz, ist eigentlich keine Definition, aber es lohnt sich, die sehr unübersichtliche übliche Definition für Determinanten über Permutationen und Inversionen zu umgehen.
Definition 9.2 Sei A = ( a;j ) n , n E M n . Für n ? 2 und i, j = 1 , . . . , n ist der Minor A ij diejenige Matrix, die aus A durch Streichen der i-ten Zeile und der j-ten Spalte entsteht. Dann wird die Determinante von A rekursiv definiert als det : M n ----> R mit det. ( A ) = l A I := an
82
KAPITEL 9, EIGENWERTPROBLEME
für n
= 1
und für n ;?: 2 durch n
det(A) = lA I : = E a;j ( - 1 ) i +i det(A;; ) j=l
für ein i E { 1 , . . . , n } , Entwicklung nach der i-ten Zeile genannt, oder gleichwertig durch n det (A) = lA I
:=
E a;; ( - 1 )1+i det(A;; ) i =l
für ein j E { 1 , . , n } , Entwicklung nach der j-ten Spalte genannt. Der Term ( - 1 )i +i det(A;; ) heißt Adjunkte oder Kofaktor der Komponente a ;; . . .
nennt man die
zu
Bemerkung 9.6
A adjungierte M·atrix. 1.
Für n = 2 folgt: det·(A)
-I
au a21
a12 a22 ·
1
= au a22 - a 1 2a21
= Produkt der Hauptdiagonalelemente - Produkt der Nebendiagonalelemente. 2. Für n = 3 folgt: det(A)
au a12 a13 a21 a22 a23 a31 a32 a33 = aua22a33 + a12a23a31 + a13a21a32 - au a23a32 - a12a21 a33 - a13a22a31
Diesen Ausdruck kann man sich leichter merken, indem man die von A noch einmal neben die Matrix schreibt, also das Tableau au a12 a13 au a21 a22 a23 a21 a31 a32 a 33 a31
1.
und 2. Spalte
a12 a22 a32
betrachtet, und jetzt die Summe der Produkte auf der Hauptdiagonalen und ihrer beiden rechten Nachbardiagonalen minus der Summe der Produkte auf der Neben diagonalen und ihrer beiden rechten Nachbardiagonalen bildet (Regel von Sarrus) . 3.
Es gibt keine Sarrus-Regelfür n ;?: 4. Man wendet dann den Laplaceschen Entwick lungssatz direkt an und entwickelt dabei nach den Zeilen oder Spalten, die möglichst viele Nullen enthalten.
Neben den bisher erwähnten Möglichkeiten kann man auch das Gaußsehe Eliminations verfahren zur Berechnung von Determinanten einsetzen. Dazu stellt der folgende Satz die Wirkung elementarer Zeilen- und Spaltenumformungen auf Determinanten vor.
Satz 9.5 Sei A E M n und r E
R.
Dann gilt:
9.2. DETERMINANTEN
83
1. Multiplikation einer Zeile oder Spalte von det(A) mit r .
A
mit r bewirkt die Multiplikation von
2. Die Vertauschung zweier Zeilen oder zweier Spalten dreht das Vorzeichen von det(A)
um.
3. Die Addition einer Zeile (oder Spalte) mit dem r-fachen einer anderen Zeile (oder Spalte) ändert det(A) nicht. 4. Ist eine Zeile oder Spalte von A der Nullvektor, so folgt: det(A) = 0 . 5 . Für (untere oder obere) Dreiecksmatrizen, insbesondere also auch für Diagonalma trizen, gilt: det( A) = Ilf=1 a ;; .
6. det(I) = 1
Bemerkung 9. 7 Man bringt also A = ( a ;i )n,n durch elementare Zeilen- und Spaltenum formungen auf Dreiecksgestalt A* = ( a ij )n,n , um dann mit
die gewünschte Determinante zu erhalten, wobei k die Anzahl der Zeilen- und Spaltenver tauschungen ist. Es folgenden wieder einige Rechenregeln.
Satz 9.6 Sei A E Mn und r E 1.
R.
Dann gilt:
det (A) = det(A T )
n 2. det (rA) = r det(A)
3. det (AB) = det(A)det(B) Bemerkung 9.8 I. a. gilt: det(A + B) =f. det(A) + det(B) Satz 9.7 A E Mn ist regulär
{:::::>
det(A) =f. 0.
Schließlich können Determinanten auch zur Berechnung der Inversen einer Matrix die nen. Dieser Weg ist aber i.a. umständlicher als das in Abschnitt 7.3 erläuterte Gaußsehe Eliminationsverfahren.
Satz 9.8 Sei A E M n regulär. Dann gilt: 1 · A- 1 =
1
det(A) A
Tadj
Auch bei der Berechnung von Determinanten können günstige Blockstrukturen sehr zeit sparend ausgenutzt werden, wie der letzte Punkt des folgenden Satzes zeigt .
84
KAPITEL 9. EIGENWERTPROBLEME
Satz 9.9 Sei A E M n eine quadratische Blockmatrix der Form
1 . Ist An regulär, so gilt: det (A) = det(An) det (A22 - A21 A !l A 1 2 )
2 . Ist A22 regulär, s o gilt: det (A) = det (A22) det (An - A12A 7] A2 1 ) 3.
Für A 1 2
=
0 oder A2 1
=
0 reduzieren sich vorstehende Resultate auf det (A) = det(A 11 ) det (A22)
Abschließend wird die eingangs erwähnte geometrische Veranschaulichung der Determi nante ausführlicher betrachtet .
Bemerkung 9.9 1 . Sei f : Rn -+ Rn , f(x) = A x eine lineare Abbildung, durch A E M n beschrieben. Betrachtet man das Volumen des durch die n Einheitsvek toren e 1 , . . . , e n aufgespannten Einheitsparallelotops und da.s Volu.men des durch A e 1 , . . . , Aen aufgespannten Parallelotops, so beschreibt l det(A ) I die Volumenver zerrung durch f bzw. A . 2 . Für die i n Bem. 9. 5 vorgestellten Grundt ypen bijektiver linearer Abbildungen be
deutet das folgendes: Spiegelungen und Drehungen sind nicht volumenverzerrend, da l det(Aa ) l = l det(Ap ) l = l det (Av ) l = 1
Hingegen gilt l det (A s) l
1
so daß es also Streckungen und Stauchungen sind, die volumenverzerrend wirken. 9.3
Eigenwert e
In diesem Abschnitt geht es geometrisch darum, bei einer beliebigen quadratischen Matrix A E M n festzustellen, wie die durch sie definierte lineare Abbildung auf die Vektoren des Rn wirkt , ob es zum Beispiel Vektoren (Eigenvektoren) gibt , auf die A wie eine einfache Streckung (Eigenwertbetrag > 1 ) bzw. Stauchung (Eigenwertbetrag < 1 ) wirkt - siehe Bem. 9.5. Eigenwerte werden zur Beschreibung des stabilen oder explosiven Verhaltens dynamischer Prozesse, bei der Behandlung von Differenzen- und Differentialgleichungen oder auch beim Studium quadratischer Formen (und damit in der Optimierung) im näch sten Abschnitt eingesetzt.
85
9. 3. EIGENWERTE
Definition 9.3 Sei A E Mn . .A E R heißt Eigenwert von A, wenn es ein x E Rn mit x f:. 0 und Ax = .Ax gibt. Jedes x f:. 0 mit Ax = .Ax heißt dann Eigenvektor von A zum Eigenwert .A . Satz 9.10 A x = .Ax hat eine Lösung x f:. 0
(
{::=:>
det ( A - .AI) = 0 .
Bemerkung 9.10 Man erhält also alle Eigenwerte von A E Mn durch Bestimmung aller Lösungen der Gleichung det { A - .AI) = det
... aln a12 au - .A a2n a2 1 a22 - .A . . . ; ann ;_ A anl a n2 .
J
=0
wobei ein Nullstellenproblem für ein Polynom n-ten Grades in .A entsteht. Anschließend löst man für jedes .A das HLGS ( A - Al)x = 0 und erhält so einen Eigenvektor zu .A . .
Definition 9.4 Für A E Mn heißt
PA : R -+ R,
PA ( .A)
: = det ( A - .AI)
das charakteristische Polynom von A . Es folgen einige Eigenschaften von Eigenwertproblemen. Wegen des 1 . Punktes spricht man auch von Eigenräumen statt nur von Eigenvektoren. Der 2. Punkt ist nützlich u.a. beim Studium dynamischer Prozesse.
Satz 9 . 1 1 Für A = ( a ;j ) n , n E Mn gilt:
1. Ist x f:. 0 ein Eigenvektor von A zum Eigenwert .A und r E R \ {0}, so ist auch rx Eigenvektor von A zum Eigenwert .A . 2.
Sei A n Vn E
:= A A ·
·
. . .
n - mal
·
A . Ist .A ein Eigenwert von A mit Eigenvektor x , s o ist
N auch _A n Eigenwert von A n mit Eigenvektor x .
hat n reelle und/oder komplexe Eigenwerte A t , . . . , A n , die nicht voneinander verschieden sein müssen. Komplexe Eigenwerte treten dabei - siehe Abschnitt 1.4 immer paarweise auf.
3. A
4· Für (untere oder obere) Dreiecksmatrizen, insbesondere also auch für Diagonalma trizen, gilt: .A; = a ;; für i = 1 , . .. , n . 5. det ( A ) = Il;'= 1 .A; 6.
rg ( A )
7. A t
.A = 0 ist Eigenwert von A .
f:. A 2 mit Eigenvektoren X t , x 2 => x1 und x 2 sind linear unabhängig.
Bemerkung 9. 1 1 Für die Eigenwerte von den A E M 2 , die die wichtigen Grundtypen bijektiver linearer Abbildungen f : R2 -t R2 , f(x) = Ax beschreiben - siehe Bem. 9. 5 -, gilt:
KAPITEL 9. EIGENWERTPROBLEME
86 1 . Identität : A 1
=
A2
=
1
2. Streckungen/Stauchungen : A 1
=
3. Geradenspiegelungen : A 1
=
1 , A2
=
A2
=
4 . Punktspiegelungen : A 1
A2 =
=
a
-1
-1
5. Drehungen :
(a) (b) (c)
a =
=?
A1 = A 2 = 1 (Drehung Identität) a = 11' =? A 1 = A 2 = - 1 (Drehung Punktspiegelung) a E (0, 11') U (11' , 211') =? A 1 , A 2 ft R {echte Drehung)! 0
=
=
Komplexe Eigenwerte treten also nur bei Drehungen auf Viele in der Praxis auftretende Matrizen, z.B. die in der Optimierung bedeutsamen Hesse Matrizen oder die u.a. in der Ö konometrie häufigen Matrizen der Form XTX, sind im Gegensatz zu obigen Drehungsmatrizen symmetrisch. Der folgende Satz besagt u.a. , daß dann komplexe Eigenwerte nicht auftreten können.
Satz 9.12 Sei A E M n symmetrisch. Dann gilt: 1. Alle Eigenwerte sind reell.
3. rg (A)
=
p�
n
=?
A
=
0
ist ( n - p) -facher Eigenwert.
Bei symmetrischen Matrizen ist man daher immer in der Lage, die im letzten Teil dieses Abschnitts erläuterte Hauptachsentransformation durchzuführen. Dabei werden Ei genvektoren einer Matrix so als Basis gewählt , daß dann die Matrix Diagonalform ( mit den Eigenwerten auf der Hauptdiagonalen ) , also eine besonders einfache Form erhält . Dazu sind noch einige vorbereitende Begriffe nötig.
Definition 9.5 A, B E M n heißen ähnlich oder äquivalent, falls eine reguläre Matrix C E M n existiert mit B = c- 1 AC . Satz 9.13 Ähnliche Matrizen besitzen die gleichen Eigenwerte. Definition 9.6 A E M n heißt orthogonal, falls AT = A-l . Bemerkung 9.1 2 In einer orthogonalen Matrix A E M n sind alle Zeilen- und Spalten vektoren orthonormal, d.h. paarweise orthogonal und normiert, und es gilt l det ( A ) I = 1 . Orthogonale Matrizen sind also nicht volumenverzerrend.
87
9. 4. Q UADRATISCHE FORMEN
Satz 9.14 (Hauptachsentransformation) Sei A E M,. symmetrisch. Da.nn existie ren zu den Eigenwerten At , . . . , A,. E R genau n linear unabhängige Eigenvektoren x1 , , x,. E R", die so wählbar sind, daß X : = (x 1 , , x,. ) orthogonal ist. A ist diago nalisierbar, d.h. ähnlich zu • . .
.
•
.
der Diagonalmatrix der Eigenwerte, d.h.: A
= XT AX
bzw.
A
=
XAX T
Man sieht also einer beliebigen quadratischen Matrix A E M,. oft deswegen ihre Wirkung auf die Punkte des R" nicht an, weil die kanonische Basis für diesen Zweck ungünstig ist . Mittels obiger Hauptachsentransformation kann man sich bei symmetrischen Matrizen ein günstigeres Koordinatensystem konstruieren. Dabei bestimmen die paarweise ortho gonalen Eigenvektoren die (Haupt-)Achsen des dabei einzuführenden neuen Koordinaten systems, das man durch eine Drehung (nicht volumenverzerrend, da Jdet(X) J = 1) aller Punkte des R" erreicht . Und bezüglich einer Hauptachse (eines Eigenvektors) wirkt A wie eine einfache Streckung bzw. Stauchung.
9.4
Q uadrat ische Formen
Quadratische Formen werden u.a. in der Optimierung in Abschnitt 1 1 .3 verwendet, wo die Definitheit der Hessematrix von großem Interesse ist. Definitheit wird übrigens nur für symmetrische Matrizen definiert .
Definition 9. 7 Sei A
E M,.
symmetrisch. Dann heißt
...
quadratische Form . Man nennt A 1.
positiv definit, wenn xT Ax > 0 V x -:/: 0 .
2.
positiv semidefinit, wenn xTAx � 0 V x -:/: 0 .
3 . negativ definit, wenn xTA x < 0 V x -:/: 0 . 4. negativ semidefinit, wenn xTA x s; 0 V x -:/: 0. 5 . indefinit sonst.
Satz 9.15 Sei A
E M,. symmetrisch. Dann gilt:
::: ) ( ;:)
n
n
= L L aij X i Xj i= l i = l
KAPITEL 9. EIGENWERTPROBLEME
88 1 . A positiv definit 2.
�
( - 1 ) A negativ definit. �
A positiv semidefinit
( - 1 )A negativ semidefinit.
Obige Definition ist zum Nachweis der Definitheit sehr unpraktisch. Viel einfacher ist der folgende Weg über die Eigenwerte einer Matrix.
Satz 9 . 16 Sei A E M n symmet1·isch und A die Diagonalmatrix der Eigenwerte von A . Dann gilt: 1 . A positiv definit � A positiv definit � A 1 , . . . , A n > 0 � A
2. A positiv semidefinit 3.
� A
A negativ definit
5.
A indefinit
� A
�
negativ definit
� A
4 . A negativ semidefinit
positiv semidefinit
indefinit
�
A 1 , . . . , An �
negativ semidefinit �
A 1 , . . . , A11 ;:::: 0
0 und ein A;
0 V i = 1 , . . . , n 2.
A negativ definit
� :::>
det(H; ) ;:::: 0 V i = 1 , . . . , n 4- A negativ semidefinit :::> ( - l ) i det (H; ) ;:::: 0 V i = 1 , . . . , n Schließlich kann man für A E M 2 folgende Ä quivalenzbeziehungen für die Definitheit formulieren, die in Abschnitt 1 1 .3 ausgiebige Verwendung finden. 3.
A positiv semidefinit
( - 1 ) i det ( H ; ) > 0 V i = 1 , . . . , n
)
(
an a 1 2 E M symmetrisch. Dann ist A 2 a12 an 1 . positiv definit � an > 0 und ana 22 - a� 2 > 0
Satz 9.18 Sei A
=
2. negativ definit 3.
�
positiv semidefinit
4. negativ semidefinit
au
� �
0 an, a 22 ;:::: 0 und ana 22 - a� 2 ;:::: 0 a11, a 22 :::; 0 und a u a 22 - a� 2 ;:::: 0 0
Teil
111
Analysis
Kapit el 1 0 Differenzierbare Funkt ionen 10.1
Funkt ionen mehrerer Variablen
Im Vorkurs wurden Funktionen einer Variablen ausführlich diskutiert . In diesem Abschnitt müssen daher nur die Konzepte neu eingeführt werden, bei denen sich bei Funktionen mehrerer Variablen etwa die Anschauung grundlegend ändert.
Bemerkung 10. 1 In der gesamten Analysis werden alle Zeilenvektoren ohne das in der linearen Algebra dafür vereinbarte Transpositionssymbol geschrieben, um die Ausdrücke lesbarer zu gestalten. Definition 10.1 1 . Ist jedem Punkt X = ( X I , ' Xn ) E J eindeutig ein z = f(x) E R zugeordnet, so heißt . • •
J : D1 FUnktion der n Variablen x1 7
•
•
•
--+
R,
DI
�
Rn durch die lforschrift
z = j(x)
, Xn .
D1 = {x E Rn 1 3 z E R mit z = /(x) } wird als Definitionsbereich bezeichnet, die Elemente x E D 1 als Urbilder oder Argumente . W1 = { z E R 1 3 x E D1 mit z = f(x) } wird als Wertebereich bezeichnet, die Elemente z E W1 als Bilder oder Jfunkti onswerte. 2 . Bei ökonomischen Funktionen liegen dann n unabhängige Variablen x1 ,
und eine abhängige Variable z vor.
3.
Gilt D1 � R2 , so ist der Graph von f die Menge { (x, y , z) E R3 1 (x, y ) E D j , z = f(x, y)} die eine Fläche im R3 beschreibt.
•
•
•
, Xn
KAPITEL 10. DIFFERENZIERBARE FUNKTIONEN
92
Es folgt die Definition der einfachsten Funktion.
Definition 10.2 Seien a0,
. • .
, a n E R. Die affin-lineare Funktion
f : Rn --+ R,
n f(x) = ao + L: a;x; i= l
beschreibt für n = 2 eine Ebene im R3 . Wenn Flächen gezeichnet werden sollen, so gibt es neben perspektivischen Skizzen das Instrument der lsohöhenlinien, das aus der Geographie von den Höhenlinien eines Berges vertraut ist und in der Ö konomie als Isoquanten, Indifferenzkurven u.ä. häufige Verwen dung findet . Man schneidet dabei die betrachtete Fläche im R3 mit Ebenen parallel zum Definitionsbereich auf verschiedenen Höhen c E R, zeichnet die Schnittfunktionen dann im Definitionsbereich ein und kann aus ihrem Verlauf auf das Aussehen der Fläche im R3 schließen.
Definition 10.3 Für f : D1 --+ R, D1 � R2 , heißen M c = {(x, y) E D j l f(x, y) = c }
Isohöhenlinien von f mit der Höhe c E R. Definition 10.4 Der natürliche Definitionsbereich einer Fu.nktion f ist der (mathe matisch) größtmögliche. Definition 10.5 Die Menge
beschreibt einen Kreis mit dem Mittelpunkt (a , b) E R2 u.nd dem Radius r 2: 0 . Die Kreisgleichung wird bei der Veranschaulichung des Paraboloiden benötigt , d a dessen Isohöhenlinien Kreise sind. 1 , . . . , n . Eine quadratische Definition 10.6 1. Seien a0, a;, a;j E R für i , j Funktion wird definiert als: n n n f : Rn --+ R, f(x) = a0 + L a ; x ; + L L a;jX i Xj i = l j= l i= l 2. Ein Spezialfall ist für n = 2 der (Normal-) Paraboloid
f : R2 --+ R,
f(x , y) = x 2 + y 2
Es gibt nur eine beschränkte Klasse von Funktionen, die, angewandt auf z.B. mikroöko nomische Probleme, ökonomisch sinnvolle Ei genschaften aufweisen. Von diesen sind die beiden folgenden Funktionen die gebräuchlichsten.
93
1 0.2. PARTIELLE DIFFERENTIATION
Definition 10.7 Mit a; > 0 für i
=
0, . . . , n und p ::/: 0 heißt
f : (0, oo t --+ R,
f(x)
=
a o Il f= 1 xi;
=
ao
(?: )
Cobb-Douglas-Funktion und
g : (0, oo t --+ R, g ( x )
n
•=1
a;x f
1 /p
CES-Funktion, wobei 'CES' für 'constant elasticity of substitution' steht. Bemerkung 10.2 1. Die Cobb-Douglas-Funktion wird sehr oft angewendet, da sie u. a. auf einfache Weise linearisiert werden kann, denn n ln(f(x) ) = ln (a o ) + L a; ln ( x;)
i= 1
ist eine affin-lineare Funktion (in den logarithmierten Variablen). 2. Für die CES-Funktion gilt:
(a) p = 1 => g(x) = a0 (L:i= 1 a;x;) ist eine lineare Funktion. (b) Mit L:f= 1 a; = 1 folgt limp 0 g(x) = f(x) . Die CES-Funktion ist also in diesem Sinne eine Verallgemeinerung der Cobb-Douglas-Funktion. ....
10.2
Part ielle D ifferent iat ion
Grundlegend für beinahe alle Methoden der Analysis ist die sichere Beherrschung der Differentiation, die im Vorkurs schon gründlich eingeführt wurde. Bei der partiellen Dif ferentiation von Funktionen mehrerer Variablen geht es um die Frage, wie sich die Funk tionswerte ändern, wenn nur eine der unabhängigen Variablen verändert wird. Es geht also um die Steigung der Funktion in einem Punkt in einer der Koordinatenrichtungen. Es zeigt sich, daß fast das ganze Instrumentarium aus dem Vorkurs auf dieses verallge meinerte Problem übertragen werden kann.
Definition 10.8 1 . Die Funktion f : D, --+ R, D1 � Rn , heißt in x = (xt . . . . , x n ) E D, partiell differenzierbar nach x ; , wenn x innerer Punkt von D, ist und die partielle Ableitung von f nach x; in x
J; . (x) '
=
l
_i_ f(x ) 8x; x
=:lt
:=
lim ; 0
.O.z -+
f ( x t , . . . , x ; + Llx; , . . . , x n )
Ll x;
-
f (x)
existiert. 2. Sei U � D, offen. f : U --+ R heißt partiell differenzierbar, falls J; ; (x) für i = 1 , . . . , n und V x E U existieren. 9.
Sei U � D, offen. f : U --+ R heißt stetig partiell differenzierbar, falls J; ; (x) für i = 1 , . . . , n und V x E U existieren und stetig sind.
94
KAPITEL 1 0. DIFFERENZIERBARE FUNKTIONEN
Bemerkung 10.3
1 . '{) ' ist ein stilisiertes 'd ' und wird daher auch 'd ' gelesen.
2.
Man unterscheide auch hier zwischen der Ableitungsfunktion f�, (x) und der Ablei tung f� , (x) (ein Funktionswert) an einer Stelle X. .
3.
Praktisch ist die partielle Ableitung bezüglich einer Variablen nichts anderes als die gewöhnliche Ableitung bezüglich dieser Variablen bei Festhaltung aller anderen Variablen. Daher lassen sich alle Rechenregeln für Funktionen einer Variablen auf diesen Fall übertragen.
Abschließend wird noch eine Vektorschreibweise für partielle Ableitungen eingeführt , die praktische Anwendungen bei numerischen Verfahren aufweist.
Definition 10.9 Ist D1 s;;; Rn offen und f : D1 ---+ R partiell differenzierbar, so heißt grad f(x) : = u;, (x) , . . . ' f;n (x))
Gradient von f. Bemerkung 10.4 Der Gradient von f weist lokal, also in der Umgebung eines Punktes, in die Richtung des steilsten Anstiegs von f. Diese Eigenschaft wird etwa in numerischen Optimierungsverfahren ausgenutzt, bei denen ein Algorithmus iterativ (d.h. schrittweise), ausgehend von einem Startwert, · e in lokales Maximum einer Funktion finden soll u.nd dabei in jedem Schritt die vom Gradienten angezeigte Richtung wählt. 10.3
D ifferent ial
Einigermaßen realitätsnahe ökonomische Funktionen werden selten besonders einfach, ganz selten affin-linear sein. Trotzdem sprechen viele praktische wie theoretische Gründe dafür, in der Modellbildung einfache ökonomische Funktionen zu wählen. Man erreicht diese einfachen Funktionen etwa durch geeignete Transformationen wie bei der Cobb Douglas-Funktion in Abschnitt 10.1 oder durch möglichst gute Approximationsverfahren ( d.h. Näherungsverfahren ) , die in diesem Abschnitt in drei Schritten mit den einfachsten, den affin-linearen Approximationsfunktionen eingeführt werden. 1 0 .3 . 1
D ifferent ial einer Funkt ion einer Variablen
In diesem Unterabschnitt geht es darum, eine beliebige differenzierbare Funktion f einer Variablen durch eine Gerade in der Umgebung einer Stelle x E Dt zu approximieren. Man wählt dazu die Tangente an f in x, da diese in x den gleichen Funktionswert und die gleiche Steigung wie f aufweist .
Bemerkung 10.5 Sei f : D, ---+ R, n, s;;; R, in X E n, differenzierbar. Sei ßx := x - x und ßy := f(x) - f(x) = f(x + ßx) - f(x) Dann kann die Tangente an f in x
y = f(x) + !'(x) . (x - x)
X
E
n,
mit
95
1 0. 3. DIFFERENTIAL
zur Approximation (= näherungsweisen Berechnung) von Funktionswerten von f in der 'Nähe ' von x verwendet werden: f(x + ßx)
RJ
f (x) + f'(x ) ß x ·
Das sogenannte 'Differential' ist dann nichts weiter als der Steigungsterm der approximie renden Tangente (in modifizierter Schreibweise) .
Definition 10.10 Mit den obigen Bezeichnungen heißt
dy : = f'(x ) · ß x Differential von f in x . Bemerkung 10.6 1 . dy Ri ßy, d.h. die Änderung dy der approximierenden Tangente approximiert ßy, die wirkliche Änderung der Funktionswerte zwischen x und x . 2. Die Güte aller Approximationen hängt u.a. ab von der Form von J, von der Stelle
x und von der Differenz ßx .
Schließlich interessiert man sich für den bei der Approximation entstandenen Fehler, für den es zwei Standardkriterien gibt :
Definition 10.11 Mit obigen Bezeichnungen definiert man den absoluten Fehler
öy : = lßy - dy l = lf(x + ß x ) - f( x ) - f'(x ) ß x l ·
und den relativen Fehler öy f (x + ß x ) - f(x ) - f'( x) · ß x ß y - dy TJ Y : = = = dy dy dy
l
i i
l
Bemerkung 10.7 Der absolute Fehler weist die gleiche Dimension wie die abhängige Variable auf, während der relative Fehler dimensionslos ist. 10.3.2
Totales D ifferent ial
Nun sollen die Ü berlegungen des letzten Unterabschnitts auf Funktionen mehrerer Varia blen verallgemeinert werden. Dazu soll zunächst eine beliebige differenzierbare Funktion f zweier Variablen durch eine Gerade in der Umgebung einer Stelle x E D1 approximiert werden, wobei vorerst nur Ä nderungen in einer der beiden unabhängigen Variablen zu gelassen werden. Dann kann man wie im vorigen Unterabschnitt die Tangente an f in x (jetzt in der entsprechenden Koordinatenrichtung) wählen.
Bemerkung 10.8 Sei D1 � R2 und f : D1 -+ R in x E D1 partiell differenzierbar nach x; mit i = 1 , 2 . Dann kann die Tangente an f in x;-Richtung in x
z; = f ( x ) + f�; ( x ) · ( x; - x ;) analog zum letzten Unterabschnitt zur Approximation von Funktionswerten von f in der 'Nähe ' von x verwendet werden, wenn nur der x ; - Wert verändert wird.
96
KAPITEL 1 0. DIFFERENZIERBARE FUNKTIONEN
Definition 10.12 Mit den obigen Bezeichnungen und ß x; := x; - x ; heißt dfx ; := f� ; (x) ß x; partielles Differential von f bzgl. x; . Sollen nun bei einer beliebi gen differenzierbaren Funktion f zweier Variablen Ä nderungen in beiden unabhängi gen Variablen zugelassen werden, so approximiert man f in der Um gebung einer Stelle x E D 1 durch eine Ebene. Diese Tangentialebene aber liegt schon fest, da sie die beiden eben betrachteten Tangenten ( in beiden Koordinatenrichtungen ) und den festen Punkt x, in dem die Ebene die Fläche berührt , als Spezialfälle enthalten ·
sollte. Durch zwei Geraden und einen Punkt aber ist eine Ebene eindeuti g bestimmt . Ana log bestimmen n Tangenten in den n Koordinatenrichtungen und ein fester Punkt x E D 1 eine sogenannte Tangentialhyperebene, die eine beliebige differenzierbare Funktion von n Variablen in der Umgebung von x approximiert . Bemerkung 10.9 Sei D1 s;; Rn und f : D1 --+ R in x E D1 partiell differenzierbar nach x; für i = 1 , . . . ' n . Sei X E Dl mit
ß x; : = x; - x ; und ßJ : = f(x) - f(x) Dann kann die Tangentialhyperebene an f in x n
z = f(x) + L f�; (x) (x; - x ;) ·
i=l
zur Approximation von Funktionswerten von f in der 'Nähe ' von x verwendet werden: f(x)
RJ
n
f(x) + L f�; (x) · ß x; i=l
Wiederum ist das totale Differential dann nichts weiter als der Steigungsterm der appro ximierenden Tangentialhyperebene in modifizierter Schreibweise.
Definition 10.13 Mit den obigen Bezeichnungen heißt n
df := L f� ; (x) ß x; i=l
·
totales Differential von f in x. Bemerkung 10.10 L df :::! ßJ, d.h. die Änderung df der approximierenden Tangen tialhyperebene approximiert ßJ, die wirkliche Änderung der Funktionswerte zwi schen x und x . 2 . Die Güte aller Approximationen hängt u.a. ab von der Form von J, von der Stelle X
und von den Differenzen ß x; .
Und auch die Fehlermaße sind aus dem vori gen Unterabschnitt direkt zu übertragen.
Definition 10.14 Mit obigen Bezeichnungen definiert man den absoluten Fehler o f := l ß / - df l und den relativen Fehler ßf df q f := d Bemerkung 10.11 Auch hier weist der absolute Fehler die gleiche Dimension wie die abhängige Variable auf, während der relative Fehler dimensionslos ist.
l f l
97
1 0. 4. VERALLGEMEINERTE KETTENREGEL
10.4
Verallgemeinerte Kett enregel
Häufiger tritt in ökonomischen Anwendungen das Problem auf, daß eine Variable y von x l ! . . . , X n abhängt, die dann aber selbst noch einmal alle von einer weiteren Variable t abhängen. Um den so bestehenden Einfluß der Variable t auf die Variable y messen zu können, benötigt man die verallgemeinerte Kettenregel, das Thema dieses Abschnitts. Zum Verständnis dieser Regel muß in diesem Abschnitt zunächst ein weiterer Funktionstyp eingeführt werden. Seien n, m E N. Neben den im Vorkurs betrachteten Funktionen f : R --+ R und den in der Veranstaltung Analysis betrachteten Funktionen f : Rn --+ R gibt es auch noch Funktionen f : R --+ Rm , die nur in diesem Abschnitt kurz angesprochen werden, und allgemein Funktionen f : Rn --+ Rm, die in diesem Kurs nicht zu sehen sein werden. n Variablen
Definition 10.15 Sei D9 �
R. Ist durch die
jedem Punkt t E D9 eindeutig ein g ( t ) E
Vorschrift
Rm zugeordnet,
so definiert g eine Funktion .
g; : D9 -+ R, i = 1 , . . . , m heißt Komponentenfunktion . g entsteht also einfach dadurch, daß man die Bilder der Komponentenfunktionen g; als Vektor schreibt. Und da die Komponentenfunktionen gewöhnliche Funktionen einer Va riablen sind, definiert man alle Eigenschaften von g einfach über die Komponenten. Definition 10.16 Eine Funktion g : D9 --+ Rm, D9 � R, ist stetig (differenzierbar}, wenn alle Komponentenfunktionen g; : D9 --+ R, i = 1 , . . . , m, stetig (differenzierbar} sind. Zur Anschauung von Funktionen von R nach Rm ist aber ein kurzer Hinweis nötig. Wir nehmen dabei der Einfachheit halber an, daß der Definitionsbereich der jeweiligen Funk tion die ganze Menge R bzw. der ganze Rn ist.
Bemerkung 10. 12 Bei den sonst in Vorkurs und Analysis betrachteten Funktionen f : Rn --+ R (mit n :;::: 1} fügt man die Achsen von Definitions- und Wertebereich zu einem Rn+l zusammen, um dann in diesem bestimmte Kurven im R2 , bestimmte Flächen im R3 , also allgemein bestimmte Gebilde zu betrachten, die durch Verformung des Defi nitionsbereichs (des Rn ) entstehen und dann im Rn+l abgelegt werden. Bei Funktionen g : R --+ Rm (mit m > 1} ist der Definitionsbereich immer die reelle Zahlengerade, die dann gemäß der Abbildungsvorschrift g verformt und im jeweiligen Rm abgelegt wird. Ist g stetig, so ist das Bild von g : R --+ R2 daher eine Kurve im R2 , das Bild von g : R --+ R3 eine Kurve im R3 , das Bild von g : R --+ Rm also eine Kurve im
Rm .
Der nun folgende Satz verallgemeinert die Kettenregel aus Abschnitt 5.2, da hier eine Funktion h : D9 --+ R, D9 � R, abgeleitet werden soll, die als Verkettung einer Abbildung g : D9 --+ Rn und einer Abbildung f : D1 --+ R, D1 � Rn entsteht . Beschränkt man
98
KAPITEL 1 0. DIFFERENZIERBARE FUNKTIONEN
sich auf n = 2 , so kann man sich das Vorgehen folgendermaßen veranschaulichen: Der eindimensionale Definitionsbereich von h und g wird gemäß der Vorschrift g auf eine Kurve im Definitionsbereich von f, also im R2 abgebildet . Nur die Punkte auf dieser Kurve in D1 werden dann gemäß der Vorschrift f auf eine Kurve in der Bildfläche von f abgebildet. Diese Kurve im Bild von f im R3 ist das Bild von h.
Satz 10.1 ( Verallgemeinerte Kettenregel ) Ist g : D9 --+ Rn , D9 � R, eine Funk tion, deren Komponentenfunktionen g; für i = 1 , . . . , n stetig differenzierbar sind, ist f : D1 --+ R, D1 � Rn , nach allen Variablen x; mit i = 1 , . . . , n partiell differenzierbar, und ist W9 � D1, so ist h : = f o g : D9 --+ R , h(t) : = (f o g )(t) = f( g (t) ) = f(g l (t) , . . . , gn (t)) differenzierbar mit der Ableitung 8f(x) . dx; !!:_ h(t ) = E dt dt x ;=g; ( t ) i = l Ox;
I
10.5
Part ielle Ableit ungen höherer O rdnung
Da partielle Ableitungsfunktionen oft selbst differenzierbare Funktionen sind, ist es möglich, zweite partielle Ableitungsfunktionen zu bilden. Man benötigt diese etwa für hinreichende Bedingungen für Extrema in der Optimierung in Abschnitt 1 1 .3.
Definition 10.1 7 Sei D1 � Rn offen und f : D1 --+ R partiell d�fferenzierbar mit den partiellen Ableitungsfunktionen f� , (x), i = 1 , . . . , n . Sind diese partiellen Ableitungsfunk tionen wiederum partiell differenzierbar, so heißt f zweimal partiell differenzierbar mit den n 2 zweiten partiellen Ableitungsfunktionen f:, , x J x) ::� f(x) f:t .x t (x) &x��xJ( x ) &2 a &x n &x 1 f(x) &x f(x) Bemerkung 10.13 Für die sogenannten Kreuzableitungen J:, ,x) x) mit i i- j gilt zwar i.a. J: xJ. (x) o:f. J:J 1 x (x) 1 aber der folgende Satz nennt die häufige Ausnahme von der
;
I J
I
Regel: Satz 10.2 Sind die zweiten partiellen Ableitungsfunktionen einer Funktion f : D1 --+ R, D1 � Rn , stetige Funktionen, so gilt für i, j = 1 , . . . , n : f"Xi 1XJ. (x)
=
f"Xj 1 X i (x)
Nun kann die Hessematrix eingeführt werden, die in der Optimierung in Abschnitt 1 1 .3 mit Methoden der linearen Algebra nach hinreichenden Bedingungen für Extrema untersucht wird.
Definition 10.18 Sei f : D1 --+ R, D1 � Rn , eine zweimal partiell differenzierbare Funktion. Dann wird die Hesse-Matrix H(x) definiert als:
99
1 0. 6. ABLEITUNG IMPLIZITER FUNKTIONEN
10.6
Ableit ung impliziter Funkt ionen
Bei der Entwicklung ökonomischer Modelle geschieht es häufiger, daß eine Funktionsglei chung nicht in der expliziten Form, also nach der Endogenen aufgelöst, entsteht und daß diese Form auch durch Transformation nicht erreicht werden kann. Trotzdem ist es unter bestimmten Bedingungen möglich, diese nur in 'impliziter' Form vorliegende Funktion ab zuleiten. Man verwendet diese Ableitungsregel für implizite Funktionen auch u.a. in der Mikroökonomie zur Untersuchung von Substitutionseffekten. Die Theorie wird zunächst für implizite Funktionen einer Variablen vorgestellt und dann auf Funktionen von n Va riablen verallgemeinert.
Definition 10.19 Sei f : D, ---+ R, D, � R2 , eine Funktion der Variablen X und y . Eine Funktion g : D9 -+ R, y = g(x) mit D9 � R in der Form f(x, y) = f(x, g(x)) = 0 heißt implizit (gegeben) . Liegt g in der Form y = g(x) vor, so heißt g explizit (gegeben) . Bemerkung 10.14 1. 'lmplizit '/'explizit ' ist eine Eigenschaft der Funktionsdarstellung, nicht der Funktion selbst. 2. Jede explizit gegebene Funktion kann als implizite Funktion geschrieben werden. Die
Umkehrung gilt i. a. nicht.
3.
Ist g invertierbar, so ist die implizite Darstellung von g auch die implizite Darstel lung der Umkehrfunktion
Obwohl aus der impliziten Darstellung i.a. nicht die explizite Darstellung von g oder g- 1 gewonnen werden kann, erlaubt der folgende Satz, der aus der verallgemeinerten Kettenregel folgt , trotzdem deren Ableitung.
Satz 10.3 Sei f : D1 ---+ R auf D1 � R2 stetig differenzierbar. Sei D9 � R und
g : D9 -+ R,
y = g(x) durch f(x, y) = O
implizit gegeben. Dann gilt V ( x, y) E D 1 mit f� ( x, y) =/:- 0 : f;(x , y) g'(x) = _ f� (x, y) Existiert die Umkehrfunktion g - 1 : Wg ---+
Dg ,
X = g - 1 (y)
von g, so gilt V (x, y) E D1 mit f;(x, y) =f:. 0 :
1
..!!_ g - 1 (y) = _ f� (x, y) = 1 dy f: (x, y) g ' (x) x=g -l (y ) __
KAPITEL 1 0. DIFFERENZIERBARE FUNKTIONEN
100
Es folgt die Verallgemeinerung obigen Satzes auf implizit dargestellte Funktionen von n Variablen.
Satz 10.4 (Verallgemeinerung) Sei f : D1 renzierbar. Sei D9 s;; Rn und
g : D9
-t
R,
-t
R auf D1 s;; RnH
stetig partiell diffe
y = g(x t, . . . , X n) durch f(x l , . . . , X n , y) = 0
implizit gegeben. Dann gilt V (x t, . . . , X n , y) E D1 mit f�(xt , . . . , X n , y) ::j:. 0 : gx1 ; ( Xt,
• • •
' X n ) _- _ f;; (xXtl,, .. .. .. ,, XX n,, YY)) n ( J�� y
für i = 1 , . . . , n . Homogenit ät
10.7
In diesem Abschnitt geht es um die Frage, wie sich die Endogene, also der Funktionswert einer Funktion f verändert , falls alle Exogenen mit dem gleichen Faktor vergrößert ( A > 1 ) oder verkleinert (A < 1 ) werden. Natürlich wird sich bei den meisten Funktionen dann der Funktionswert von f ändern, aber bei homogenen Funktionen hat diese Ä nderung eine gleichbleibend einfache Form. Man untersucht die Homogenitätseigenschaft etwa in der Mikroökonomie bei Produktions- und Nachfragefunktionen.
Definition 10.20 Eine Funktion f : D1 -t R , D1 s;; Rn , ist homogen vom Grade r : {:=} V x E D1 und V A > 0 gilt: Ax E D1 und f(h) = Ar f(x) . r E R heißt Homogenitätsgrad von f. Bemerkung 10.15 1 . Man beachte, daß nur die Variablen Xt, . . . , x n und NICHT die Parameter mit dem Faktor A multipliziert werden. 2. Bei Funktionen einer Variablen sind die Potenzfunktionen f(x) = ax r mit a ::j:. 0 und x > 0 homogen vom Grade r . 3.
Es folgt eine nähere Betrachtung der Wirkung des Homogenitätsgrades r für den Fall A > 1 . • •
• • •
r > 1 => Ar > A => f( x ) wächst mit einem größeren Faktor als x. r = 1 => Ar = A => f(x) wächst mit dem gleichen Faktor wie x. Man nennt f dann linear homogen . 0 < r < 1 => 1 < Ar < A => f(x) wächst mit einem kleineren Faktor als x. r = 0 => Ar = 1 => f(x) verändert sich nicht (unabhängig von A) r < 0 => 0 < Ar < 1 => f(x) schrumpft, wenn x wächst.
Die nun folgende Eulersche Formel ist gelegentlich nützlich beim Nachweis der Homoge nität und bei der Bestimmung des Homogenitätsgrades. Zudem wird damit im nächsten Abschnitt eine Verbindung zu den Elastizitäten geschaffen.
1 0.8. ÄNDER UNGSRATEN UND ELASTIZITÄ TEN
101
Satz 10.5 (Eulersche Formel) Sei D1 s; R" und f : D1 -+ R partiell differenzierbar. Dann ist f homogen vom Grade r V x E D, gilt: r f(x) = Ei'= 1 f�; (x) x; ·
·
Bemerkung 10.16 Wenn also Ef=1 f�; (x) · x; sich in die Form r f(x) bringen läßt, so ist der Nachweis der Homogenität von f erbracht. Wichtig ist, daß r eine feste reelle Zahl sein muß, also NICHT von den Variablen X t , , x ,. abhängen darf! ·
•
•
•
Abschließend werden noch einige Rechenregeln für homogene Funktionen und die Ergeb nisse für die Cobb-Douglas-Funktion und die CES-Funktion aufgeführt.
Satz 10.6 ist
Sind die Funktionen ft (x) und h (x) homogen vom Grade r1 bzw. r2 , so
1.
(a) ft (x) ± f2 (x) nur homogen, wenn r1 = r2 ist. (b) ft (x) h (x) homogen vom Grad r1 + r 2 • ·
(c)
��f�� homogen vom Grad r1 - r2 , sofern h (x) '# 0 .
2 . Ist die Funktion f(x) homogen vom Grade r und partiell differenzierbar, s o ist f� ; (x) homogen vom Grade r - 1 für i = 1, . . . , n .
Bemerkung 10.17 Die Cobb-Douglas-Funktion - siehe Def. 1 0. 7 - ist homogen vom Grad r = Ei= t a;, die CES-Funktion - siehe Def. 1 0. 7 - linear homogen. 10.8
Ä nderungsrat en und Elast izität en
Wenn es darum geht , die Wirkung der Ä nderung einer unabhängigen Variablen auf die abhängige Variable zu messen, ist der Differenzen- bzw. Differentialquotient oft nicht so geeignet , da er von den Dimensionen und Skalierungen beider Variablen abhängt . In Ä nderungsraten und Elastizitäten sind diese Abhängigkeiten teilweise oder ganz beseitigt , was für eine bessere Vergleichbarkeit der Ergebnisse sorgt . Daher finden diese Begriffe in ökonomischen Diskussionen große Verwendung. Da alle wesentlichen Konzepte schon bei Funktionen einer Variablen eingeführt und dann mühelos auf Funktionen mehrerer Variablen übertragen werden können, nimmt der erste Unterabschnitt den größeren Raum ein. 10.8 . 1
Funkt ionen einer Variablen
Neben dem Differenzenquotienten aus Abschnitt 5 . 1 gibt es noch die folgenden drei Kon zepte zur Beschreibung von Ä nderungen einer Variable, wobei - wie beim Differenzen quotienten - bei den Begriffen 2 und 3 der folgenden Definition die Ä nderung einer un abhängigen Variable die Ä nderung einer abhängigen Variable bewirkt , während bei der relativen Ä nderung nur eine Variable für sich betrachtet wird. Dabei enthält die einfache 'relative Ä nderung' die wesentliche Idee zur Dimensionsbereinigung (Division einer Ä nde rung durch den Wert einer Variable), die dann auf den Differenzenquotienten einmal (bei der Ä nderungsrate) oder zweimal (bei der Elastizität) angewendet wird.
102
KAPITEL 1 0. DIFFERENZIERBARE FUNKTIONEN
Definition 10.2 1 Sei f : D, --+ R, D, � R, und Xo, Xt E ßJ(x) := f (xt ) - f(xo) . Dann wird
n,
mit ßx : = Xt - Xo und
1 . die mittlere relative Änderung von x in x0 für x0 :f 0 definiert als
ßx Xo 2. die mittlere Änderungsrate von f in x0 für ßx :f 0 und f(x0) :f 0 definiert als
ßJ(x) ßf(x)/f( xo) = --=---'--:-'-'---'---"ßx · f(xo) ßx 3.
die mittlere Elastizität oder Bogenelastizität von f in x0 für ßx :f 0 und f(xo) :f 0 definiert als ßJ(x) · xo ßJ(x) / f(xo) = ßx · f(xo) ßx/xo
Bemerkung 10.18 1. Die mittlere relative Änderung ist dimensionslos. Inte7·pretation: Für x = x0 gilt: x ändert sich um .;: · 100% . Man beachte, daß sich bei der mittleren relativen Änderung Anteile ergeben, die erst auf Prozentzahlen umskaliert werden müssen. 2. Interpretation des Di.fferenzenquotienten: Für x = x0 gilt: Wächst x um 1 Einheit,
so ändert sich f( x) um ß/s.�x ) Einheiten.
3.
Interpretation der mittleren Änderungsrate: Für x = x0 gilt: Wächst x um 1 Einheit, · 100% . Auch hier müssen die Anteile erst auf so ändert sich f(x) um � ß
!Jflo)
Prozentzahlen umskaliert werden. Außerdem ist die mittlere Änderungsrate abhängig von der Dimension der unabhängigen Variable, was sich etwa in der Anwendung bei Wachstumsraten pro Jahr aber auch als sinnvoll erweist. 4 · Die mittlere Elastizität ist dimensionslos. Sie kann als Quotient zweier relativer Änderungen aufgeJaßt werden. Interpretation: Für x = x0 gilt: Wächst x um 1 %, so ändert sich f(x ) um �� xf · xo % . Hier erhält man direkt Prozentzahlen in beiden X · Xo Variablen, da der Faktor 100 in Zähler und Nenner steht und sich daher herauskürzt. Bemerkung 10.19 Durch Grenzwertbildung (ß x --+ 0) werden aus Differenzenquotien ten Differentialquotienten und aus mittleren Änderungsraten und Elastizitäten die folgen den Begriffe. Definition 10.22 Sei f : D1 Dann heißt: � ..
--+
R, D1 � R, differenzierbar in x0 E D1 mit f(xo) :f 0 .
1 . PJ(xo) := 7[XJ Anderungsrate von f in x0 •
1 0. 8. ÄNDERUNGSRATEN UND ELASTIZITÄ TEN 2.
€J ( xo) := x
· 1((::? = x
·
103
PJ ( x0) (Punkt-)Elastizität von f in xo .
Bemerkung 10.20 1 . Interpretation des Differentialquotienten: Für x = x0 gilt: Wächst x um 1 Einheit, so ändert sich f(x) approximativ um f'( xo) Einheiten. Das Wort 'approximativ ' ist nun erforderlich, da hier - wie beim Differential in Abschnitt 1 0 . 3 - die wahre Änderung von f durch die Änderung der Tangente an f in x0 approximiert wird. 2.
Interpretation der Ä nderungsrate: Für x = x0 gilt: Wächst x um 1 Einheit, so ändert sich f(x) approximativ um PJ (xo) 1 00 % . Wie bei der mittleren Änderungsrate muß auf Prozentzahlen umskaliert werden und es ergibt sich die Abhängigkeit von der Dimension der Exogenen. Und wie im vorigen Punkt handelt es sich auch hier nur um gewichtete Änderungen der approximierenden Tangente an f in x0 . ·
3.
Die Elastizität ist dimensionslos. Interpretation: Für x = x0 gilt: Wächst x um 1 %, so ändert sich f (x) approximativ um €J (x0)% . Wie bei der mittleren Elastizität er geben sich automatisch Prozentzahlen für beide Variablen. Zum Wort 'approximativ ' vergleiche man den vorigen Punkt.
Schließlich kann man, wie bei Ableitungen, beide Konzepte zu Funktionen auf ganz D 1 ausdehnen.
Definition 10.23 Sei f : D1 -+ R, D1 � R, differenzierbar auf D1 und
D* := {x E D1 l f (x) =f 0} 1.
Die Änderungsrate(nfunktion) von f ist dann P i : D* -+ R,
2.
PJ (x) : =
f'( x) f(x)
Die Elastizität (sfunktion) von f ist dann Cf :
D* -+ R, c1 (x) := x
·
f'( x) = x p1 (x) f(x) ·
Bemerkung 10.21 1 . Wenn die Loga.rithmierung von f die Berechnungen vereinfacht - etwa bei großen Produkten -, ist folgender Hinweis nützlich: Für f( x) > 0 gilt
d d J'(x) dx ln ( f (x)) = f(x) =? p 1 (x) = dx ln (f(x)) 2. Für affin-lineare Funktionen f( x) = a + b x mit a E R, b =f 0 ist die Ableitungsfunk 3.
tion f' (x) = b konstant, Änderungsra.ten- und Elastizitätsfunl.� tion aber nicht. Für die Exponentialfunktionen f( x) = ae bx mit a, b =f 0 ist die Ä nderungsratenfunk tion PJ (x) = b konstant, Ableitungs- und Elastizitätsfunktion nicht.
4. Für Potenzfunktionen f( x) = a x b mit x > 0 und a, b =f 0 ist die Elastizitätsfunktion €J ( x) = b konstant, Ableitungs- und Änderungsratenfunktion nicht.
KAPITEL 1 0. DIFFERENZIERBARE FUNKTIONEN
1 04
In ökonomischen Diskussionen spielen die nun folgenden Elastizitätsbereiche eine große Rolle, da sie es erlauben, Wirkungen der Exogenen auf die Endogene eines Modells ( ohne Beachtung des Vorzeichens ) in Größenklassen einzuteilen. Um diese Bereiche bei konkreten Funktionen ermitteln zu können, sind Kenntnisse der Betragsrechnung und des Rechnens mit Ungleichungen - siehe Vorkurs - sehr hilfreich! --+
Definition 10.24 Sei t:1(x) die Elastizitätsfunktion der Funktion f : D1 unterscheidet die folgenden Elastizitätsbereiche : f heißt für x0 E D1
R. Man
1 . vollkommen unelastisch, falls E:J(x0) = 0 . 2. unelastisch, falls 0 < lt:J(xo ) l < 1 . 3.
I-elastisch, falls lt:J(xo)l = 1 .
4. elastisch, falls 1 < lt:J(xo) l < oo
.
vollkommen elastisch, falls limx -+ xo lt:J(x ) l = oo Bemerkung 10.22 (Interpretation) 1 . Ist f vollkommen unelastisch für x0 E DJ , so ändert sich f( x) nicht, wenn sich x ändert. 5.
.
2. Ist f unelastisch für x0 E D 1, so ist der Betrag der prozentualen Änderung von f( x)
echt kleiner als der Betra.g der prozentualen Änderung von x .
3.
Ist f 1-elastisch für x0 E D 1 , so ist der Betrag der prozentualen Änderung von f( x) gleich dem Betrag der prozentualen Änderung von x .
4. Ist f elastisch für x0 E D 1 , so ist der Betrag der prozentualen Änderung von f( x) echt größer als der Betrag der prozentualen Änderung von x . Ist f vollkommen elastisch für x0 E D 1 , so ist der Betrag der prozentualen Änderung von f(x) unendlich groß und t:J(x) ist nicht definiert. Bemerkung 10.23 Nur bei den Elastizitätsbereichen ist die Richtung der Änderung von f(x) (das Vorzeichen von cJ(x)) nicht von Interesse, sonst natürlich schon! 5.
Die folgenden Rechenregeln - vor allem die Punkte 1, 3 und 4 - können eine große Ar beitsersparnis bedeuten, wenn etwa schon geeignete Einzelergebnisse vorliegen.
Satz 10.7 (Rechenregeln) Seien f, g : D 1 ,9 --+ R auf D* � D 1 Funktionen mit f(x) , g(x) =I 0 V x E D* und sei c E R. Dann gilt:
Änderungsratenfunktionen 1 PcJ (x) = P J (x) x gx J 2 P J +g (x) - ft x ) · P ( Xl + _l l' p_al_ l f(x) + g(x) 3 P J·g (x) = P J (x) + p9 (x) 4 PJ /g (x) = P J (x) - p9(x) 5 P9oJ (x) = f(x) · p9( j(x)) P J (x) 6 f(x) P J- 1 (J(x)) · x · P J (x) = 1 _
·
·
n
D9 differenzierbare
Elastizitätsfu.nktionen CcJ (x) = E:J(x) cJ(x + g(x) t:9(x) [__ c f +g (x) - ( x ) f(x)) + g(xl t:1.9(x) = E:J(x) + t:9(x) _
·
·
t:J;9(x) = E:J(x) - t:9 (x) cg o J(x) = t:9 (f(x)) E:J(x) ·
c1-1 (J(x)) · t:J(x) = 1
1 0. 8. ÄNDER UNGSRATEN UND ELASTIZITÄ TEN
Natürlich muß in der vorletzten Zeile noch
Wt �
105
D9 gelten.
Etwa beim Ü bergang von Kostenfunktionen zu Stückkostenfunktionen ist der zweite Punkt des folgenden Spezialfalls nützlich.
Bemerkung 10.24 (Spezialfall) Mit g( x ) E' J .id ( x ) = E' J ( x ) + 1
=
id ( x )
E' Jfi d ( x )
= x
für x =f:. 0 folgt e;d ( x )
=
1 und
= E' J ( x ) - 1
Schließlich kann man die Eulersche Formel aus dem vorigen Abschnitt auch mit Elasti zitäten formulieren.
Satz 10.8 (Eulersche Formel) Sei D* � R mit f(x) =f:. 0 . Dann ist f : D* --+ R homogen vom Grade r E R {=:::} V x E D* gilt: r = e1 ( x ) Bemerkung 10.25 Damit die rechte Seite der Äquivalenz erfüllt ist, darf E' J ( x ) nicht von x abhängen. 10.8.2
Funktionen mehrerer Variablen
Die Ü bertragung der Begriffe des vorigen Unterabschnitts auf Funktionen mehrerer Va riablen bedeutet nur eine andere Schreibweise, wie folgende Definition zeigt . Alle Bemer kungen und Rechenregeln sind dann direkt zu übertragen und werden daher hier - mit einer Ausnahme - nicht mehr erwähnt .
Definition 10.25 Sei f : D t --+ R, D t � Rn , partiell differenzierbar. Dann heißt für f(x) =f:. 0 f� . (x) PJ,x; ( X ) : = J( x) partielle Änderungsratenfunktion von f bzgl. x; für i = 1, . , n und f�; (x) = X; · P J,x; ( X ) E'j,x; ( X ) : = X; · f(x) partielle Elastizitätsfunktion von f bzgl. x; für i = 1 , . . . , n . Bemerkung 10.26 1 . Für die Cobb-Douglas-Funktion - siehe Def. 1 0. 7 - gilt (x ) = a; für i = 1, , n. E'J,x ; .
.
.
.
.
2. Für die CES-Funktion - siehe Def. 1 0. 7 - gilt für i E'j,x; ( X ) =
a · x '!
=
1, . . , n: .
_n_,_,L: a ; x f i=l
Die Eulersche Formel lautet für Funktionen mehrerer Variablen und in Elastizitäten fol gendermaßen:
Satz 10.9 (Eulersche Formel) Sei f : D* --+ R, D* � Rn , partiell differenzierbar mit f(x) =/:- 0 V x E D* . Dann ist f homogen vom Grade r E R {=:::} V x E D* gilt: i=l
Bemerkung 10.27 Damit die rechte Seite der Äquivalenz erfüllt ist, darf die Summe der Elastizitäten nicht von den Variablen abhängen.
1 06
10.9
KAPITEL 1 0. DIFFERENZIERBARE FUNKTIONEN
Taylorreihen
In diesem Abschnitt werden nur Funktionen einer Variablen betrachtet , da Taylorreihen schon für Funktionen zweier Variablen doch sehr aufwendig werden. Es wird versucht, das in Abschnitt 10.3 beschriebene Verfahren, beliebige differenzierbare Funktionen einer Variablen durch Tangenten zu approximieren, zu verbessern. Dies geschieht , indem zur Approximation Polynome oder - für gegen Unendlich strebenden Polynomgrad - Potenz reihen verwendet werden. Diese Verfahren dienen u.a. zur approximativen Berechnung von transzendenten Funktionswerten (z.B. von e"' und ln(x) ) und irrationalen Zahlen (z.B. 1r ) sowie zur Approximation von komplizierteren Funktionen, etwa bei der Nullstellenberech nung oder der Integration - siehe Abschnitt 12.4. Schließlich werden in der Ökonomie auch nicht näher spezifizierte Funktionen aufgrund dieses Ansatzes durch Polynome approxi miert. Eine Potenzreihe ist eine Funktion S, deren Funktionswerte für alle x E Ds Reihen sind , die man aus Polynomen mit gegen Unendlich strebendem Polynomgrad erhält. Dabei tre ten gewisse Koeffizienten bk auf, die noch näher beschrieben werden. Die Reihe wird dabei, wie die Tangente in Abschnitt 10.3, an einer Stelle x0 E Ds entwickelt . Schließlich ist eine Funktion nur auf diese Weise definiert , wenn die entsprechende Reihe konvergiert (siehe Abschnitt 4.2), so daß der Definitionsbereich der Funktion nur im Konvergenzbereich der Reihe liegen kann.
Definition 10.26 Sei k E N0 • Dann heißt S:
S(x) : =
Ds -+ R ,
00
L: bk (x - x0) k
k=O
Potenzreihe mit Entwicklungsstelle x0 E Ds und Koeffizienten bk E R, wobei
Ds : = { x E R I S( x) konvergiert} Diese Potenzreihen werden betrachtet , um damit eine Funktion f möglichst gut zu appro ximieren. Eine Taylorreihe ist eine spezielle Potenzreihe, die für diesen Zweck besonders geeignet ist , da die eben noch unbestimmten Koeffizienten - falls f hinreichend oft diffe renzierbar ist - abhängig von den Ableitungen von f so gewählt werden, daß f und die Taylorreihe in ihren Ableitungen an der Entwicklungsstelle x0 übereinstimmen.
Definition 10.27 Sei f : n , -+ R in einer Umgebung von Xo E n , unendlich oft differenzierbar und x E D J . Dann heißt Tj (x ) : =
oo
{; J(k)k(x! 0 )
•
(x - x0) k
Taylorreihe von f mit der Entwicklungsstelle x0 • Bemerkung 10.28 Zur Erinnerung:
und f (xo) = J ( x o) =
JOO (x� 0.1
•
(x - xo)
o
107
1 0. 9. TAYLORREIHEN
Bei konkreten Berechnungen wird man, etwa wenn der Approximationsfehler unter eine gewünschte Schranke gedrückt wurde, die Taylorreihe nach einem gewissen Summanden abbrechen wollen. Man erhält dann ein Taylorpolynom n-ten Grades und ein Rest.glied, das für Stellen x =f. x0 i.a. von Null verschieden ist .
Definition 10.28 Sei f : D, und x E D J . Dann heißt
-+
R in einer Umgebung von Xo E D, n-mal differenzierbar
Tj(x) :=
{; J(kk) (x! 0) n
•
(x - x0) k
das n-te Taylorpolynom von f mit der Entwicklungsstelle x0, und es gilt f(x ) = Tj(x)+ Rj (x )
mit dem Restglied Rj ( x) . Bemerkung 10.29 TJ ( x) ist die Konstante f ( x0) . T] ( x) ist die schon bekannte Tangente an f in x = xo . Tj ( x) ist ein Polynom n-ten Grades, das in x0 den gleichen Funktionswert und die gleichen Ableitungen wie f bis zur Ordnung n hat. Die Taylorreihe einer unendlich oft differenzierbaren Funktion f muß für x =f. x0 nicht konvergieren. Wenn sie konvergiert, muß sie nicht gegen f konvergieren. Daher kann man folgende Funktionseigenschaft definieren, die noch stärkere Anforderungen an f als bloße Differenzierbarkeit stellt .
Definition 10.29 f : D, -+ R heißt analytisch in Xo E D,, wenn es eine Potenzreihe gibt, die in einer Umgebung von x0 gegen f konvergiert. Satz 10.10 Die Potenzreihendarstellung einer analytischen Funktion f um Xo E D, stimmt mit der Taylorreihe von f um x0 überein. Es existiert ein r E (0, oo], so daß die Reihe V x mit lx - xol < r konvergiert und V x mit lx - xo l > r divergiert. r heißt Konvergenzradius und (x0 - r, x0+ r ) KonvergenzintervalL Im Konvergenzintervall gilt f(x) = Tj ( x) und Rj (x) = 0 Eine Ü bersicht schließt den Abschnitt ab:
•
108
KAPITEL 1 0. DIFFERENZIERBARE FUNKTIONEN
Salz 10. 1 1 Die Taylorreihen einiger wichtiger Funktionen:
Konvergenzinten•all Funktion R
ex
R
ax
{ - 1 , 1]
ln{ 1 + x)
{ 0, 00 )
ln(x)
R
sin{x)
R
cos(x)
(-1 , 1)
1 -1-x
Taylorreihe oo
x"
Ek-0 k !
f: (x ln( a ) ) "
0 k-= 00
k! ( - 1 ) "" 1
L k · xk k -1 (x - 1 ) •"-t- • 2� (2k + 1 ) { x + 1 ) 2k+I •"-t-• �( - 1 )k · x {2k + 1 ) ! •" �{ - 1 )k . x { 2k)! 00 k Ex k -0 oo
oo
oo
Kapitel 1 1 O ptimierung Es gehört zu den Hauptaufgaben der Mathematik in der Ö konomie, Verfahren zur Maxi mierung von z.B. Gewinn- oder Umsatzfunktionen oder zur Minimierung von z.B. Kosten funktionen zur Verfügung zu stellen. Die Verfahren werden in diesem Kapitel erläutert . In allen Abschnitten werden die jeweiligen Konzepte zunächst für Funktionen einer Variablen eingeführt und dann auf Funktionen mehrerer Variablen verallgemeinert .
11.1
Lokale und globale Extrema
Zunächst müssen einige Begriffe definiert werden. 11.1.1
Funkt ionen einer Variablen
Definition 1 1 . 1 Eine Funktion f : D1 --+ R, D1 � R, hat in Xo 1. globales Maximum, falls V x
E
D1 gilt: f(xo)
�
f(x)
2. globales Minimum, falls V x
E
D1 gilt: f(xo)
:5
f(x)
9.
E
D1 ein
striktes globales Maximum, falls V x
E
D1 \ {x0} gilt: f(xo) > f(x)
4. striktes globales Minimum, falls V x
E
D1 \ {xo} gilt: f(xo) < f(x)
5. lokales Maximum, falls eine Umgebung U� (x0) � D1 existiert mit f(xo) � f(x) V x E U� (xo)
6. lokales Minimum, falls eine Umgebung U�(x0) � D1 existiert mit f(xo) :5 f(x) V x E U� (xo) 7. striktes lokales Maximum, falls eine Umgebung U� (x0) f(xo) > f(x) V X E u;(xo)
C
D1 existiert mit
8. striktes lokales Minimum, falls eine Umgebung U�(x0) � D1 existiert mit f(xo) < f(x) V X E u;(xo) xo selbst heißt dann Maximal- bzw. Minimalstelle. Extremum ist der Oberbegriff für Maximum und Minimum, Extrem(al)stelle der Oberbegriff für Maximal- und Minimal stelle.
KAPITEL 1 1 . OPTIMIERUNG
110
Bemerkung 1 1 . 1 1 . Maxima, Minima bzw. Extrema sind also die Punkte auf dem Graphen von J, während man die zugehörigen Stellen im Definitionsbereich von f als Maximal-, Minimal- bzw. Extremstellen bezeichnet. 2. Ein striktes lokales Maximum - alles analog für ein Minimum - liegt also in xo E
D1 vor, wenn f in x0 den größten Funktionswert in einer (eventuell sehr kleinen) Umgebung von Xo mit dem Durchmesser 2e aufweist. Diese Umgebung u. (xo) - siehe Abschnitt 4 . 2 - muß aber zu beiden Seiten von x0 existieren, so daß lokale Extrema NICHT am Rand von D1 liegen dürfen. In lokalen Extrema gilt immer f'(x0) = 0, so daß lokale Extrema durch Nullsetzen der 1 . Ableitung ermittelt werden können.
3.
Nicht-strikte lokale Extrema treten dann auf, wenn die Funktion (eventuell nur auf einem Teil von D 1) konstant ist, was relativ selten auftritt.
4 · Ein globales Maximum - alles analog für ein Minimum - liegt in Xo E D, da.nn vor, wenn f in x0 den größten Funktionswert auf dem gesamten Definitionsbereich aufweist. Wird dieser Wert f(x0) nur in x0 realisiert, liegt dort ein striktes globales Maximum vor. Gibt es mehrere x; mit f(x0) = f(x; ) für i = 1 , 2, . . . , so liegen in xo , X t , . . . nicht-strikte globale Maxima vor. Globale Extrema dürfen am Rand von D, liegen, müssen aber natürlich nicht. Die globalen Extrema findet man durch Vergleich der lokalen Extrema und der Funktionswerte am eventuellen Rand von D, . 5. Eine Funktion kann viele lokale Maxima und Minima haben, jedoch nur ein globa
les Maximum und ein globales Minimum. Letztere treten an mehreren Stellen auf, wenn sie nicht strikt sind. Ein lokales Minimum/Ma.x imum ist also nicht unbedingt global, da es mehrere lokale Minima/Maxima geben kann. Aber ein globa.les Mini mum/Maximum ist auch nicht unbedingt lokal, da globale Extrema am Rand von D1 liegen können, lokale hingegen nicht.
6. Es gibt Funktionen, die weder Minima noch Maxima besitzen. 11.1.2
Funkt ionen mehrerer Variablen
Die Ü bertragung der Konzepte des vorigen Unterabschnitts auf Funktionen mehrerer Va riablen erfordert nur eine andere Schreibweise.
Definition 1 1 . 2 Eine Funktion f : D1 -+ R, D1 s;;; Rn , hat in :X E D1 em 1. globales Maximum, falls V x E D1 gilt: f(x) � f( x ) 2. globales Minimum, falls V x E D1 gilt: f(x) � f(x)
3. striktes globales Maximum, falls V X E D, \ {:X} gilt: f(x)
>
f (x )
4. striktes globales Minimum, falls V X E n, \ {:X} gilt: f(x) < f(x) 5. lokales Maximum, falls eine Umgebung U. (x) s;;; n , existiert mit /(:X) f(x) V X E u.(x)
>
6. lokales Minimum, falls eine Umgebung U.(x) s;;; n , existiert mit f(x) < f( x ) V X E u.(x )
111
1 1 . 2. KONVEXITÄ T UND KONKAVITÄ T
7. striktes lokales Maximum, falls eine Umgebung U. (x) � D1 existiert mit f(x) > f ( x ) V x E U; (x) 8.
striktes lokales Minimum, falls eine Umgebung U.(x) � D1 existiert mit f ( x ) f ( x ) V x E U;(x)
f ( .\ x l + (1 - .\ )x 2 ) Ist eine Funktion f in einem Intervall [a, b] konvex oder konkav,
·
·
Bemerkung 1 1.2 1. so müssen dort keine Extrema vorliegen. Aber wenn ein Extrem um in [a, b] vorliegt, so kann es bei konvexer Krümmung von f nur ein Minimum sein, bei konkaver Krümmung von f nur ein Maximum.
112
KAPITEL 1 1 . OPTIMIERUNG
2. Nun folgen einige Erläuterungen zur sehr abstrakt aussehenden Definition:
{x l x = A Xt + ( 1 - A )x 2 , A
E
[0, 1]}
ist das Intervall [xt , x 2 ] auf der x-Achse. Dabei werden alle Punkte auf dem Gera denstück zwischen Xt und x 2 durch die Konvexkombination - siehe Abschnitt 6.4 von Xt und x 2 erzeugt. {y I y = !( A x t + ( 1 - A )x 2 ) , >.
E
[0, 1]}
ist daher die Menge der Funktionswerte von f im Intervall [xt , x 2 ] . Schließlich er zeugt man durch Konvexkombination der Punkte f(xt ) und f(x 2 ) noch ein weiteres Geradenstück, nämlich {y I Y = A f(xt ) + ( 1 - A ) j (x 2 ), A
E
[0, 1]}
also die Menge der Funktionswerte einer Geraden im Intervall [xt , x 2 ] , die f in den Punkten (xt , f(xt)) und (x 2 , f(x 2 )) schneidet. 3.
Obige Definition formalisiert folgende einfache Idee: Wenn man in beliebigen Teil intervallen [xt , x 2 ] � [a, b] Geraden in (xt , f(xt ) ) und (x 2 , J(x 2 )) mit f schneidet, so liegt zwischen Xt und x 2 eine konkave Funktion immer oberhalb und eine konvexe Funktion immer unterhalb der Geraden.
4.
Eine Gerade ist konkav und konvex, a.ber weder streng konkav noch streng konvex.
5. f ist genau dann (streng) konvex über [a, b] , wenn (-!) (streng) konka.v ist (und
umgekehrt) .
Es wäre sehr umständlich, mit obiger Definition Krümmungseigenschaften nachweisen zu müssen. Doch man kann zu einem berechenbaren Kriterium mit Hilfe zweiter Ableitungen gelangen. Der folgende Satz formalisiert zunächst folgende Beobachtung: Ist eine Funktion f z.B. streng konkav über [a, b] � D1 mit einer Maximalstelle x0 E (a, b) und geht man im Definitionsbereich von a nach b, so werden die Funktionswerte von f zunächst stärker, dann schwächer wachsen, bis in x0 die Steigung von f gleich Null ist und dann die Funktionswerte sinken. Damit muß also f' in [a, b] streng monoton fallen. Analog veranschaulicht man sich die weiteren Aussagen im folgenden Satz:
Satz 1 1 . 1 Sei D1 � R und f : D1 -+ R differenzierbar über [a, b] � D, . 1 . f ist (streng) konkav über [a, b] {::::=} f' fällt (streng) monoton über [a, b] . 2. f beschreibt eine Gerade über [a, bJ {::::=} f' ist konstant über [a, bJ 3.
f ist (streng) konvex über [a, bj {::::=} f' steigt (streng) monoton über [a, bJ .
Auch die Monotonie einer Funktion ist mit der Definition aus Abschnitt 2.3 nur sehr mühsam nachzuweisen. Aber für die Monotonie gibt es folgendes Kriterium über erste Ableitungen. Man beachte dabei, daß in den letzten beiden Punkten keine Ä quivalenz besteht - siehe Abschnitt 2.3.
113
1 1 .2. KONVEXITÄ T UND KONKAVITÄ T
Satz 1 1.2 Sei D 1
--+
R, D1 �
f'(xo) = 0
Bemerkung 1 1 .6 1 . Man beachte die Richtung des Folgerungspfeiles im obigen Satz. Die Aussage, daß jede lokale Extremstelle eine kritische Stelle ist, ist äquivalent zu: /' (x0) f. 0 ::::} f hat kein lokales Extremum in x0
KAPITEL 1 1 . OPTIMIER UNG
116
Wenn man alle kritischen Stellen (alle Lösungen der Gleichung f'(x) = 0} ermittelt hat, so hat man alle Kandidaten - mehr kann es nicht geben - für lokale Extre malsteilen von f, falls f in ganz D1 differenzierbar ist. In einer kritischen Stelle muß aber nicht unbedingt ein lokales Extrem um vorliegen, wie im nächsten Abschnitt ausführlich diskutiert wird. Daher ist die Bedingung, kritische Stelle zu sein, not wendig, aber nicht hinreichend für lokale Extremstellen. 2. Natürlich kann f auch lokale Extrema in Stellen aufweisen, in denen f nicht diffe
renzierbar ist.
Satz 1 1 . 7 (Hinreichende Bedingung für Extrema) Sei J : D 1 --+ R mit D 1 � R zweimal differenzierbar in einer offenen Umgebung von x0 E D, . Ferner sei f'(x o ) = 0. Dann gilt: 1. f"(x o ) < 0 :::} f hat ein strikt lokales Maximum in x0 • 2 . f" (x o ) > 0 :::} f hat ein strikt lokales Minimum i n x0 •
3. f"(x) < 0 V X E D, :::} f hat ein strikt globales Maximum in X o . 4·
f" (x) > 0 V x E D, :::} f hat ein strikt globales Minimum in x o .
Bemerkung 1 1 . 7 1 . Im Maximum-Fall ist f streng konkav, i m Minimum-Fall streng konvex in der Umgebung um X o bzw. auf ganz D, . 2. Der Fall f"(x0) = 0 wird im nächsten Abschnitt betrachtet. 11 .3.2
Funkt ionen mehrerer Variablen
Definition 1 1 . 7 Sei f : D 1 --+ R, D 1 � Rn , an der inneren Stelle x0 E D 1 partiell differenzierbar. x0 heißt kritische Stelle von f : {::::::} Bemerkung 1 1 .8 1 . Hier sind also alle Lösungen eines i. a. nicht-linearen Gleichungssystems mit n Gleichungen und n Unbekannten zu ermitteln. Ein häufiger Fehler in Klausurlösungen dabei ist, durch variable Terme zu dividieren, die auch Null sein können. Das ist erstens natürlich nicht definiert und man verliert zweitens so mindestens eine der zu bestimmenden Lösungen! 2. Für n = 2 ist in einer kritischen Stelle die Tangentialebene von f waagerecht, also
parallel zu D 1 .
Satz 1 1.8 (Notwendige Bedingung für lokale Extrema) Sei f D J � Rn in Xo E D J partiell differenzierbar. Dann gilt:
D1
--+
R mit
f hat ein lokales Extrem um in x0 :::} x0 ist kritische Stelle von f Bemerkung 1 1 .9 Auch hier gilt: Wenn man alle kritischen Stellen ermittelt hat, so hat man alle Kandidaten für lokale Extremalsteilen von J, die aber nicht unbedingt lokale Extremalsteilen sein müssen.
1 1 . 4.
117
SATTELP UNKTE
Aus den Ergebnissen des vorigen Abschnitts folgt wiederum:
Satz 1 1.9 (Hinreichende Bedingung für Extrema) f : D1 --t R, D, � Rn sei zweimal stetig partiell differenzierbar mit der Hesse-Matrix H(x) . x0 sei kritische Stelle von f. Dann gilt: 1 . H ( xo ) negativ definit =? x0 ist strikte lokale Maximalstelle von f. 2 . H(xo ) positiv definit =? Xo ist strikte lokale Minimalstelle von f.
3. H(x) negativ definit V X E D, ..{. .
H(x) positiv definit V X E D,
:::} :::}
Xo ist strikte globale Minimalstelle von f . Xo ist strikte globale Maximalstelle von f .
Auch diesen Satz kann man für n = 2 Variablen ohne Hessematrix formulieren.
Satz 1 1.10 f : D, --t R, D1 � R2 sei zweimal stetig partiell differenzierbar. Ist (x0, y0) kritische Stelle von f 1 . und gilt J::.,( x o, Yo ) · f:y_ (x o, Yo ) > (f:y (x o, yo) ) 2
(a) sowie f:.,(x o , Yo ) < 0, so ist (x o, yo ) strikte lokale Maximalstelle von f . (b} sowie /:.,(x0, y0) > 0, s o ist (x0, y0) strikte lokale Minimalstelle von f .
(a) sowie f:.,(x, y) < 0 V (x , y) E D1 , s o ist (x0 , y0) strikte globale Maximalstelle von f . {b} sowie f:.,(x, y) > 0 V (x, y) E D, , s o ist (x0, y0) strikte globale Minimalstelle von f. Bemerkung 1 1.10 1 . Aus den geforderten Ungleichungen folgt wieder, daß f�� ( x, y) das gleiche Vorzeichen wie f:.,(x, y) haben muß. 2. Im Maximum-Fall ist f streng konkav, im Minimum-Fall streng konvex in der Um
gebung von (x o, Yo ) bzw. auf ganz D, .
3. Der Fall f:.,(x o, Yo ) · f:y (x0, y0) tet. 1 1 .4
:5
(f:y (x0 , y0) ) 2 wird im nächsten Abschnitt betrach
Sat t elpunkt e
Das Thema dieses Abschnitts sind die kritischen Stellen, die keine Extremstellen sind: die Sattelstellen. Diese sind aber nicht nur bloße Restmenge der kritischen Stellen, sondern auch durchaus von eigenem ökonomischen Interesse, etwa in der Spieltheorie.
118
KAPITEL 1 1 . OPTIMIER UNG
1 1 .4 . 1
Funktionen einer Variablen
Bei Funktionen einer Variablen wird auf dem Weg zu den Sattelstellen auch der Ober begriff der Wendestellen betrachtet . Wendestellen ergeben sich einfach als die Stellen, an denen die Krümmungseigenschaft einer Funktion wechselt .
Definition 1 1.8 Eine Funktion f : D1 Xw E D 1 : {===> 3 r > 0 mit:
-t
R, D1 � R, hat einen Wendepunkt in
f ist streng konvex in [xw - r, xw] und streng konkav in [xw, Xw + r)
oder f ist streng konkav in [xw - r, xw] und streng konvex in [xw, xw + r] Xw heißt dann Wendestelle. Da gemäß Satz 1 1 . 1 eine Funktion f genau dann streng konkav ist , wenn f' streng mo noton fällt und genau dann streng konvex ist , wenn f' streng monoton wächst , liegen in Wendestellen Extremstellen von f' . Daher kann der Apparat zur Bestimmung von Ex tremstellen - mit um Eins erhöhter Ableitungsordnung - auch hier angewendet werden.
Satz 1 1 . 1 1 (Notwendige Bedingung für Wendepunkte) Sei f : D1 -t R, D1 c R, zweimal differenzierbar in Xw E D 1 . Dann gilt: f hat einen Wendepunkt in Xw =} J"(xw) = 0 Satz 1 1.12 (Hinreichende Bedingung für Wendepunkte) Sei f : D1 -t R, D1 � R, dreimal differenzierbar in einer offenen Umgebung von xw E D f . Dann gilt: J"(xw) = 0 A f'"(xw) =f. 0 =} f hat einen Wendepunkt in Xw Eine Sattelstelle ist einfach kritische Stelle und Wendestelle zugleich:
Definition 1 1.9 Sei f : D1 -t R, D1 � R, differenzierbar in Xs E D1 . x. heißt Sattel stelle und (x. , f(x.)) Sattelpunkt : {===> x. ist Wendestelle mit f'(x .) = 0 Es kommt gelegentlich vor, daß für eine kritische Stelle x0 einer Funktion f
f'(x o ) = f" (x o) = f" '(x o ) = 0 gilt , so daß die bisher für Extrem- und Sattelstellen vorgestellten hinreichenden Bedin gungen nicht greiferL In diesem Fall hilft der folgende Satz, der besagt , daß man dann solange bei f ( n l (x0) für n = 4, 5, . . . weitersuchen soll, bis für ein n E N das Ergebnis zum ersten Mal nicht Null ist . Ist dann n gerade, so ist x0 eine Extremstelle, andernfalls eine Sattelstelle.
Satz 1 1.13 Sei n E N . Ist f : Dl f'(x o) = f" (x o) =
R, D f � R, n-ma.l differenzierbar in X o = f( n - l l (x o ) = 0 und f( nl (x o) =f. 0
-t
. . .
so folgt: n ist gerade und f( n l (x0)
0 =? f hat in x0 ein lokales 1\finimum.
1.
3. n ist ungerade
=}
f hat in x0 einen Sattelpunkt.
E
Dj mit
1 1 . 5. OPTIMIERUNG UNTER NEBENBEDING UNGEN 1 1 .4.2
1 19
Funkt ionen mehrerer Variablen
Die Ergebnisse des vorigen Unterabschnitts sollen hier nur sehr knapp auf den Fall von Funktionen mehrerer Variablen verallgemeinert werden. Wendepunkte werden nicht be trachtet und Sattelstellen werden daher einfach als die Restmenge der kritischen Stellen definiert :
Definition 1 1 . 10 Sei f : D1 --+ R, D1 � Rn, in x0 E D1 partiell differenzierbar. Ist Xo kritische Stelle, aber keine lokale Extremstelle von f, so heißt Xo Sattelstelle und (xo, f (xo )) Sattelpunkt von f. Satz 1 1 . 14 (Hinreichende Bedingung für Sattelpunkte) f : D1 --+ R , D1 � Rn sei zweimal stetig partiell differenzierbar in einer offenen Umgebung von Xo E D f mit der Hesse-Matrix H(Xo ) . Ist x0 kritische Stelle von f und ist H(xo) indefinit, so hat f in Xo einen Satte/punkt. Auch diese Aussage kann man für n = 2 ohne Hessematrizen angeben:
Satz 1 1 . 15 f : D1 --+ R, D1 � R2, habe stetige partielle Ableitungen zweiter Ordnung in einer offenen Umgebung von ( x0 , y0) E D 1 . Ist ( x0 , Yo) kritische Stelle von f und gilt f:., (x o, Yo) · f;� (x o , Yo )
m, so kann auch das Substitutionsverfahren zur Lösung verwendet werden, wenn es gelingt, die Nebenbedingungen
für j = 1 , . . . , m z.B. nach den ersten m Variablen aufzulösen. Man erhält dann die m Funktionen für j = 1 , . . . , m. Diese setzt man für x 1 , . . . , Xm in die Zielfunktion ein, wodurch m Variablen substituiert werden, und minimiert/maximiert f* : D* --4 R mit D* � Rn - m und
mit den Verfahren zur Optimierung von Funktionen mehrerer Variablen aus Abschnitt 1 1 .3.
1 1 . 5.
OPTIMIERUNG UNTER NEBENBEDING UNGEN
1 1 .5.2
121
Lagrange-Verfahren
Das Substitutionsverfahren versagt , wenn die Auflösung der Nebenbedingungen zu schwie rig oder unmöglich ist. Der nun folgende Lagrange-Ansatz unterliegt dieser Be schränkung nicht . Dieser Ansatz beginnt mit der Formulierung der sogenannten Lagran gefunktion.
Definition 1 1.12 Seien f : D1 -t R und gj : D0i Rn und D := D1 n D0, n . . . n Dom · Dann heißt
-t
R mit j = 1 , . . . , m sowie Dj , D0i
m L(x t , . . . , X n , A t , . . . , A m ) := f(xt , . . . , X n ) + L Aj · gj (Xt 7 i=l Lagrangefunktion und die >.i E R Lagrangemultiplikatoren .
L:D
X
Rm
-t
R,
•
•
s;
· , X n)
Bemerkung 1 1.12 1 . Die Aj sind m weitere Variable und L(xt , . . . , x n , >.t , · · · , A m ) damit eine Funktion von n + m Variablen. 2. Gilt gi (x) = 0 für j = 1, . . . , m, so sind die m letzten Summanden der La.g mnge
funktion Null. Man addiert also zu der Zielfunktion einfach Strafterme, die Abwei chungen von den Nebenbedingungen messen.
Die kritischen Stellen des Optimierungsproblems 1 1 . 1 1 erhält man nun durch partiel le Differentiation der Lagrangefunktion nach allen n + m Variablen und anschließendes Nullsetzen und Auflösen des i.a. nicht-linearen Systems von n + m Gleichungen und n + m Variablen. Man versucht dabei zunächst , die Lagrangemultiplikatoren zu eliminieren, was die Struktur des Gleichungssystems oft auch gestattet.
Satz 1 1 . 16 (Notwendige Bedingung für lokale Extrema) Seien f : D -t R und gi : D -t R mit D s; Rn in einer offenen Umgebung von x E D stetig partiell differen zierbar. Dann ist
L�, (x, X) = f�, (x) + E}:1 Xi gj,", , (x) = 0 ·
L� " (x, X) = f�" (x) + E}:1 Xi · gj ,",J x) = 0 =0 L� , (x, X) = Yt (x) L�m (x, X) =
gm (x)
=0
notwendige Bedingung für ein lokales Extremum in x im Optimierungsproblem unter Ne benbedingungen. Bei den hinreichenden Bedingungen für obiges Optimierungsproblem kann man sich auf die Betrachtung von Funktionen der n Zielvariablen beschränken, indem man die kritischen Werte X in die 2. Ableitungsfunktionen der Lagrangefunktion einsetzt. Für i, k = 1 , . . . , n gilt: m L�; ,:r:k (x, X) = f:,,:r:k ( x ) + E xj . g'J. ",, ,:r:k (x) i= l
Man erhält dann analog zu den Resultaten aus Abschnitt 1 1 .3:
KAPITEL 1 1 . OPTIMIER UNG
1 22
Satz 1 1.17 (Hinreichende Bedingung für Extrema) Sei D � Rn . f : D -+ R und gi : D -+ R seien zweimal stetig partiell differenzierbar. Für (x, X) sei die notwendige Bedingung 1 1 . 1 6 erfüllt und
( .
L�, .,, (x, X) . . . L�' •"' n (x, X) .: . H (x , .X) := : L�n •"'' (x, X) L�n ,x n ( x, X) sei die Hesse-Matrix der Lagrangefunktion . Dann gilt: •
_
)
=> x ist strikte lokale Maximalstelle des Optimierungspro blems unter Nebenbedingungen.
1 . H*(x, X) negativ definit
2. H * ( x , X) positiv definit => x ist strikte lokale Minimalstelle des Optimierungspro blems unter Nebenbedingungen. 3. H*(x, X) negativ definit V x E D => x ist strikte globale Maximalstelle des Optimie rungsproblems unter Nebenbedingungen.
*
4. H ( x , X) positiv definit V x E D => x ist strikte globale Minimalstelle des Optimie rungsproblems unter Nebenbedingungen. Für den einfachsten Spezialfall n = 2 und m = 1 kann man die hinreichende Bedingung auch ohne Hessematrix formulieren:
Satz 1 1.18 Sei D � R2 • f : D -+ R und g : D -+ differenzierbar. Für die Lagrangefunktion
R
seien zweimal stetig partiell
L (x , y , .X ) = f (x , y) + .X · g(x, y)
und (x o, Yo, .Xo)
E
D gelte L� (x o, yo, .Xo ) = L�(xo, yo, .Xo ) = L� (xo, Yo, .Xo) = 0
Dann folgt: 1 . Gilt L�., (xo, Yo, .Xo) L�y (xo, Yo, .Xo) > ( L�y (xo , Yo, .Xo)) 2 (a) sowie L�.,( xo, y0 , .X0 ) < 0, so ist (x 0 , y0) strikte lokale Maximalstelle von f. (b) sowie L�.,(xo, Yo, .X0 ) > 0, so ist (x 0 , y0) strikte lokale Minimalstelle von f. 2. Gilt L�., ( x, y , .X0 ) L�y ( x, y , .X0 ) > ( L�y (x , y , .X0 ) ) 2 ·
•
(a) sowie L �.,( x , y , .Xo) < 0 V ( x , y) von f. (b) sowie L �.,( x, y , .X0 ) > 0 V ( x , y) von f.
E
D, so ist (x 0 , y0) strikte globale Maximalstelle
E
D, so ist (x0, y0) strikte globale Minimalstelle
Bemerkung 1 1.13 1 . Es kommt häufiger vor, daß die hinreichenden Bedingungen des Lagrange-Ansatzes in obiger Form versagen, also keine endgültige Entscheidung für Extrema erlauben, wie im vorigen Abschnitt näher beschrieben wurde. Die Me thode variabler Lagrange-Multiplikatoren, die da Abhilfe schaffen kann, soll hier aber nicht behandelt werden (siehe dazu {1 1} im Literaturverzeichnis) .
1 1 . 5. OPTIMIERUNG UNTER NEBENBEDING UNGEN
123
=
0 des Optimierungsproblems
2. I. a. ist es möglich, die m Nebenbedingungen gj (x)
unter Nebenbedingungen in der Form
gi (x) = Cj - gj (x)
=
0
mit Cj E R und j = 1 , . . . , m zu schreiben. Sehen wir auch die Cj als Variable an, so erhalten wir mit m. L : D X R2m. -+ R, L (x , >., c1 , , cm ) : = f(x) + L Aj · (cj - gj (x)) j= l • •
.
eine Funktion von n + 2m Variablen mit was analog zu Abschnitt 1 0 . 8 ökonomische Interpretationen der Lagrangemu.ltiplika toren gestattet: Im Optimum (x, X, c ) gilt: Wächst Cj um 1 Einheit, so ändert sich f(x) approxima.tiv um A j Einheiten.
Kapitel 1 2 Integralrechnung Das letzte Kapitel befaßt sich mit der Integralrechnung, wobe,i sich die Darstellung auf Funktionen einer Variablen beschränken wird. Die Integralrechnung ist in einem gewissen Sinne die Umkehrung der Differentialrechnung, was im Abschnitt 12 .2 näher beschrieben wird. Anwendungen der Integralrechnung finden sich etwa in der schließenden Statistik oder auch in intertemporalen ökonomischen Modellen.
12.1
B est immtes Int egral
Die Aufgabe des bestimmten Integrals ist, die Fläche A zwischen einer beschränkten Funktion f : D1 -+ R, D1 s;; R, und der x-Achse im Intervall (a, b] s;; D1 zu bestimmen. Da f von fast beliebiger Form sein kann, existiert dafür natürlich keine feste, für alle Funktionen f gültige Formel wie etwa bei Rechtecksflächen. Die Vorgehensweise ist aber dann, die Fläche A durch Summen von Rechtecksflächen zu approximieren. Dazu nehmen wir zunächst einmal an, daß f(x) > 0 V x E [a, b] . Dann zerlegt man das Intervall (a, b] in n Teilintervalle der Länge ßx; und bildet zwei Rechtecksflächensummen. Die n Rechtecke der Untersumme haben die Grundseiten ßx; auf der x-Achse und die Höhen m; , die so gewählt sind, daß die Oberseite die Funktion f von unten berührt, aber nicht schneidet . Die n Rechtecke der Obersumme haben die Grundseiten ßx; auf der X Achse und die Höhen M; , die so gewählt sind, daß die Oberseite die Funktion f von oben berührt , aber nicht schneidet . Die folgende Definition präzisiert das bisher gesagte.
Definition 1 2 . 1 Sei f : D1 -+ R, D1 s;; R, beschränkt auf [a, b] I := {0, 1, . . . , n - 1} eine lndexmenge.
s;;
D1 . Sei
Z := {x; E (a, b) l xo := a, x,. : = b, x; < X i +t für i E I}
heißt Zerlegung von [a, b] mit den n Teilintervallen I;
:= [ x ; , X i +t] für i E I
und den Teilintervall-Längen ßx; := x;+ l - x; für i E I
Dann wird das Infimum von f auf I; für i E I definiert als m;
:=
inf (f(x) )
xEI;
126
KAPITEL 1 2. INTEGRALRECHNUNG
und das Supremum von f auf I; für i M;
E
I als
:= sup (f(x)) x EI;
Die Untersumme von f zur Zerlegung Z ist schließlich SJ(Z) : =
n-1
L m;
i =O
·
ßx;
·
ßx;
und die Obersumme von f zur Zerlegung Z S1 (Z) : =
n- 1
M; L i
=O
Es gilt also nun
SJ(Z) :S A :S Sj (Z) Wird die Zerlegung feiner gewählt, so werden mehr Rechtecke mit i.a. kleineren Grund seiten verwendet und die Approximation wird besser. Der Grenzübergang besteht hier darin, n -+ oo Rechtecksflächen mit den Grundseiten ßx; -+ 0 aufzuaddieren - ein un bestimmter Ausdruck wie schon bei der Differentiation. Existiert dieser Grenzwert und stimmt er für Unter- und Obersumme überein, so ist er gleich der gewünschten Fläche.
Definition 12.2 Sei f : D1 -+ R, D1 � R, beschränkt auf [a, b] � D1 . f heißt inte grierbar auf [a, b] : � für jede Folge von Zerlegungen (Zn ) n eN von [a, b] mit lim (max{ ßx; ' n I x; ' n n-+oo iEI
E
Zn } ) = 0
existiert der Grenzwert von Unter- und Obersumme, und es gilt: Dann heißt
lim SJ(Zn ) = n-+oo lim SJ (Zn ) 1b f(x) dx := n-+oo a
bestimmtes Integral von f über [a, b] mit der Untergrenze a, der Obergrenze b und dem Integranden f(x ) Leseweise: 'Integral von a bis b über f von x dx '. .
Bemerkung 12 . 1 f ist ein stilisiertes 'S', da es sich um eine unendliche Summe handelt. Der folgende Satz faßt einige Eigenschaften bestimmter Integrale zusammen. Die ersten beiden Punkte leuchten unmittelbar ein und erweisen sich im Abschnitt 12.4 als nütz lich. Die letzten beiden Punkte besagen, daß Integrale 'gerichtete' Flächen bestimmen, so daß sich etwa auch negative Vorzeichen ergeben können, wenn f nur unterhalb der x-Achse liegt. Damit ist das genaue Verfahren zur Berechnung der Fläche zwischen dem Graphen von f und der x-Achse noch erklärungsbedürftig, was ebenfalls in Abschnitt 12.4 nachgeholt wird.
Satz 12.1 Sei f : D1 -+ R, D1 gilt
�
R, integrierbar auf [a, b]
�
D1 . Sei
c
E
[a, b] . Dann
1 2.2.
127
STAMMFUNKTIONEN
I: f(x) dx = I: f(x) dx + I: f(x) dx 2. Icc f(x) dx = 0 3. (a) f(x) � 0 V' x E [a , b] :::} I: f(x) dx � 0 (b) f(x) '5 0 V' x E [a, b] :::} I: f(x) dx '5 0 4 · I: f(x) dx = - Iba f(x) dx 1.
Schließlich erweist sich lntegrierbarkeit als die schwächste einer Reihe von in diesem Kurs betrachteten Funktionseigenschaften.
Satz 12.2 Sei f : D,
--.
R, [a, b]
s; D1 s;
R. Dann gilt:
f stetig auf [a, b] :::} f integrierbar auf [a, b] Bemerkung 1 2 . 2 Damit besteht folgende Hierarchie von Funktionseigenschaften:
f aTJ.alytisch auf [a , b] :::} f diff. bar auf [a, b] :::} f stetig auf [a, b] :::} f int. bar auf[a, b] Die Umkehrungen gelten i. a. nicht. 12.2
S t ammfunkt ionen
In diesem Abschnitt wird betrachtet , in welchem Sinne die Integration einer Funktion die Umkehroperation zur Differentiation dieser Funktion ist . Zudem führt diese zweite cha rakterisierende Eigenschaft von Integralen zu einer Berechnungsmethode für Integrale. Am Anfang wird der Begriff der Integralfunktion eingeführt , der - wie sich weiter un ten herausstellt - weitreichende Ü berschneidungen mit dem Begriff der Stammfunktion aufweist .
Definition 1 2 .3 Sei [d , e] s; R, f, F : [d, e] --. R Funktionen und f integrierbar auf [d, e] . F heißt Integralfunktion von f auf [d, e] : {:::::::} 3
c
E
[d , e] mit F(x) =
[' f(u) du für x
E
[d, e]
Wenn eine derartige Integralfunktion von f existiert , so ergibt sich das gesuchte bestimmte Integral über f mit variabler Obergrenze x einfach als Funktionswert F(x) . Die störende Abhängigkeit von der Konstanten c beseitigt man leicht durch die folgende Differenzen bildung:
Satz 1 2.3 Sei [d, e] s; R, f, F : [d, e] --. R Funktionen, f integrierbar auf [d, e] und F Integralfunktion von f auf [d, e] . Dann gilt für a, b E [d, e] :
l f(x) dx
=
F( b) - F(a)
12.3 Die Schreibweise bei der Lösung eines bestimmten Integrals mit einer Integralfunktion ist dann: I: f(x) dx = [F(x)]� = F(b) - F (a)
Bemerkung
1 28
KAPITEL
1 2.
INTEGRALRECHNUNG
Nun wird die Stammfunktion einer Funktion f als die Funktion definiert, deren Ableitung f ist. Für Stammfunktionen und Integralfunktionen wird dabei dasselbe Symbol verwen det, da sie in bestimmten Situationen identisch sind, wie der übernächste Satz zeigt. .
Definition 12.4 Sei [d, e] � R, F : [d, e] -+ R differenzierbar auf [d, e] und f : [d, e] -+ R. Dann heißt F Stammfunktion von f auf [d, e] : � . d V x E [d, e] gzlt: F(x) = f(x) dx Satz 1 2.4 Sei [d, e] � R und seien F� , F2 : [d, e] -+ R Stammfunktionen von f : [d, e] -+ R auf [ d, e] . Dann gilt: 1 . V c E R ist Ft (x) + c auch Stammfunktion von f auf [d, e] .
2. :l c E R mit: Ft (x) = F2 (x) + c V x E [d, e] . Bemerkung 12.4 Stammfunktionen sind also nur eindeutig bis auf eine Konstante, da diese bei der Ableitung verschwindet. Nun folgt der zentrale Satz, der besagt , daß bei Stetigkeit einer Funktion f immer eine Stammfunktion existiert , die als Integralfunktion von f dient . Es sei noch einmal daran erinnert , daß auch unstetige Funktionen integrierbar sein können. Dann gilt aber der folgende Satz nicht und man muß das weitere Vorgehen Abschnitt 12.4 entnehmen.
Satz 1 2.5 (Hauptsatz der Differential- und Integralrechnung) Ist [d, e] � R und f : [d, e] -+ R stetig auf [d, e] , so gilt: 1. Es gibt eine Stammfunktion F von f auf [d, e] .
2. V a, b E [d, e] und für eine beliebige Stammfunktion F von f gilt:
l f(x) dx = F(b) - F(a)
Bemerkung 1 2.5 1 . Wenn die Stammfunktion einer Funktion f vorliegt, fehlt zur Lösung des bestimmten Integrals nur noch das Einsetzen der Integrationsgrenzen. Daher nennt man Stammfunktionen auch unbestimmte Integrale und schreibt:
j f(x) dx = F(x) + c
mit c E R
wobei das c für eine korrekte Lösung nicht vergessen werden sollte. 2. Beachte: F ist eine Funktion. J: f( x) dx ist eine Zahl. 3. Nicht jede Stammfunktion ist auch Integralfunktion. Der Satz besagt nur, daß bei Stetigkeit von f - Integrierbarkeit genügt nicht - eine Stammfunktion existiert, die als Integralfunktion verwendbar ist. 4. Ist f stetig auf [d, e] , so gilt
1 J f(x) dx = f(x)
Ist f differenzierbar auf [d, e] , so folgt
j d� f(x) dx = f(x) + c
In diesem Sinne ist die Integration die Umkehroperation zur Differentiation.
129
1 2. 3. RECHENREGELN
12.3
Rechenregeln
Im vorigen Abschnitt ist deutlich geworden, daß die wesentliche Aufgabe bei der Integra tion einer Funktion die Bestimmung der Stammfunktion ist . Dieser Abschnitt enthält die grundlegenden Rechenregeln der Integrationsrechnung. Die folgende Tabelle stellt die Stammfunktionen der wichtigsten Funktionen vor. Davon kann man sich die Ergebnisse in den Zeilen 1 bis 3 sowie 5, 6, 8 und 9 leicht aus den bekannten Ergebnissen der Differentialrechnung in Abschnitt 5.2 herleiten. Die übrigen Resultate muß man sich nicht merken. Die Zeilen 4 und 7 werden mit der partiellen Integration (s.u. ) ermittelt , die Zeilen 10 und 1 1 mit der Substitutionsregel im letzten Abschnitt dieses Kapitels.
Satz 1 2 .6 (Wichtige Stammfunktionen) Sei c E
f (x)
Bedingungen r E Q, r -:/:- - 1 , i. a. x > 0
R
und k
E
Z . Dann gilt:
f f (x) dx _l_ r + l x r+l
+C
1
x•
2 3
e "' e bx
b -:j:. O
e "' + c t e bx + c
4
In( x)
x>O
x · ln(x ) - x + c
5
1
x -:/:- 0
ln( l x l ) + c
6
ax
a > 0, a -:/:- 1
� a ., + c
a > 0, a -:/:- 1 , x > 0
x · loga (x) -
X
7 loga (x) 8
cos(x)
sin(x) + c
9
sin( x)
- cos (x) + c
10
tan(x)
11
cot (x)
X
-:j:. (2k + 1 ) j x -:/:- k1r
1nf;;j + c
- ln( l cos(x) l ) + c In( I sin( x ) I ) + c
Bemerkung 12.6 Man beachte, daß in der 3. Zeile nur die Stammfunktion zu ebx an gegeben wurde. Für Exponentialfunktionen exp( g (x)) mit allgemeinerem Exponenten g (x) existiert keine derartige Regel! Dasselbe läßt sich auch über a bx , ln(bx), loga (bx) , cos (bx) , sin(bx) , tan(bx ) und cot(bx) sagen. Es gibt zwar in der Integralrechnung ein Gegenstück zur Kettenregel der Differentialrechnung - die Substitutionsregel in Abschnitt 1 2. 5 , a.ber diese ist nicht so einfach, universell und erfolgreich anzuwenden wie die Kettenregel. -
Die beiden folgenden Regeln ergeben sich leicht aus der Herleitung des Integrals als Sum me.
Satz 1 2 . 7 (Faktor- und Summenregel) Sei [a, b] grierbar auf [a , b] und k E R . Dann gilt: 1.
h : [a , b]
---t
R,
h ( x)
:=
C R.
Seien f, g : [a, b]
k f( x) ist integrierbar a.uf [a, b] mit ·
jk
·
f (x) dx
=
k
·
j f(x) dx
---t
R
inte
130 2.
KAPITEL
1 2.
INTEGRALRECHNUNG
h : [a, b] -+ R, h( x) : = f( x) + g( x) ist integrierbar auf [a, b] mit
j f(x) + g(x) dx = j f(x) dx + j g(x) dx Mit dem gerade gezeigten Resultat ist der Vorrat an Ergebnissen, die so 'einfach' wie bei der Differentialrechnung sind, schon fast erschöpft. Es gibt etwa keine Produktregel für Integrale, aber die nun folgende Methode der partiellen Integration, die über die Produkt regel der Differentiation hergeleitet wird. In der Standardsituation wird ein Integral über ein Produkt zweier Funktionen umgeformt in eine Stammfunktion und ein neues Integral über ein Produkt zweier Funktionen, das einfacher zu lösen ist als das AusgangsintegraL Dabei kann gelegentlich auch mehrfache partielle Integration nötig sein. Hilfreich ist die partielle Integration auch bei Integralen über Logarithmusfunktionen oder Produkten von trigonometrischen Funktionen, die sich zyklisch wiederholen. Mit der partiellen Integrati on kann man aber keineswegs 'beliebige' integrierbare Produkte erfolgreich bearbeiten.
Satz 12.8 (Partielle Integration) Sei [a, b] renzierbar auf [a, b] . Dann gilt:
j f(x)
g ' (x) dx
·
=
c
R. Seien f, g : [a, b] -+ R stetig diffe
f(x) g(x) + c - j f'(x) g(x) dx ·
·
oder für bestimmte Integrale
l f(x) 1 2 .4
·
g ' (x) dx = [f(x) g (x)J : ·
- l f'(x)
·
g(x) dx
Er gänz un gen
Aus der Integrierbarkeit einer Funktion f folgt häufig nicht, daß es ( leicht ) möglich ist , die erforderliche Stammfunktion zu finden. Dieser Abschnitt erläutert, was in solchen Fällen getan werden kann. Außerdem werden die Situationen betrachtet , in denen einige der in den ersten beiden Abschnitten dieses Kapitels teilweise getroffenen Annahmen wie die Stetigkeit oder Beschränktheit von f verletzt sind. La. ist die Integration einer Funktion weitaus schwieriger als deren Differentiation. Schon die Integration relativ einfach aussehender Funktionen kann viel mehr als nur die pure Anwendung gewisser Rechenregeln erfordern. In gewissen Situationen hilft die Substi tutionsregel, die im letzten Abschnitt vorgestellt wird. Eine weitere Möglichkeit ist, in den ausführlichen Stammfunktionstabellen von [13] oder ähnlichen Formelsammlungen nachzuschlagen oder Programme wie MATHEMATICA oder MAPLE zu verwenden.
Bemerkung 12.7 1 . Es kann durchaus sein, daß die Stammfunktion einer integrierbaren Funktion f(x) nicht als geschlossener Ausdruck anzugeben ist. Dann helfen Verfahren der numerischen Integration weiter oder auch eventuell die Bestimmung eines geeigneten Taylorpolynoms Tj (x) - falls f differenzierbar ist - mit der Ap proximation
j f(x) dx j Tj(x) dx �
1 2. 4. ERGÄNZUNGEN 2.
131
Soll wirklich die Fläche A zwischen einer auf [a, b] integrierbaren Funktion f und der x-Achse im Intervall [a, b] berechnet werden, so ist zu beachten, daß das Inte gral bei negativen Funktionswerten auch negativ wird. Daher sind zunächst die no Nullstellen
::;
x; für i = 1, 2, . . . , no mit a zu bestimmen, um dann, falls n0 A
=
1 1x1
l
XI
Xn0 ::;
b
f(x) dx
l
< ...
a auf [a, b] integrierbar. Existiert
Jr
oo
a
E
R, und sei
b
f ( x) dx : = b-+oo lim [ f(x) dx J a.
dann heißt f auf [a, oo ) uneigentlich integrierbar. 2.
Sei b E R, und sei f : ( - oo , b] -+ R für alle a < b auf [a, b] integrierbm'. Existiert
l
oo
f(x) dx
:=
a
}li_!I-
00
l f(x) dx
dann heißt f auf ( - oo , b] uneigentlich integrierbar . 3. Sei d E R. Ist f uneigentlich integrierbar auf ( - oo , d] und auf [d, oo ) , so ist f uneigentlich integrierbar mit
j_: f(x) dx := j_d00 f (x) dx + 100 f(x) dx
Schließlich kommt es vor, daß eine Funktion am Rand des Integrationsbereichs selbst unbe schränkt ist. Auch hier verlagert die folgende Definition das Problem durch Grenzwertbil dung: Man erzeugt ein lösbares Integral, indem man die kritische ( n ) Integrationsgrenze ( n ) marginal verschiebt, und prüft nach dessen Lösung, ob diese noch endlich bleibt , wenn die Integrationsgrenze ( n ) wiederum gegen die kritische ( n ) Integrationsgrenze ( n ) gehen.
KAPITEL 1 2. . INTEGRALRECHNUNG
132
Definition 1 2 .6 (Unbeschränkte Funktion) Sei [a, b] 1 . Sei f : [a, b) --+ R integrierbar auf [a, b - c] V c
b
l f (x) dx a
:=
E
C
R.
(0, b - a) . Existiert
b!:lim --+0 la � f (x) dx
dann heißt f auf [a, b) uneigentlich integrierbar. 2.
Sei
f :
(a , b] -+ R integrierbar auf [a + c , b] V c E (0, b - a) . Existiert
b b Jfa f(x) dx := �lim -+0 Jaf + e f(x) dx
dann heißt f auf ( a, b] uneigentlich integrierbar .
3. Ist f : ( a , b) --+ R uneigentlich integrierbar auf ( a, d] und auf [ d, b) für ein d E ( a, b) , so ist f uneigentlich integrierbar auf ( a, b) mit
t f (x ) dx ld f(x) dx + l f(x) dx :=
12.5
S ubstitut ionsregel
Die Substitutionsregel der Integration ergibt sich aus der Umkehrung der Kettenregel der Differentiation. Sie wird oft bei zusammengesetzten Funktionen verwendet , aber sie erfordert sehr viel Erfahrung und Geschick bei der Wahl der Substitution.
Definition 1 2 . 7 Sei f : [a, b] --+ R stetig auf [a, b] W9 � [a, b] stetig differenzierbar auf D9 • Dann gilt
j f (g(x)) g' (x) dx = j f(y) dy i y=g x ) ·
und, falls zusätzlich noch V x
E
(
a
bzw.
>
--+
R und sei g : D9
J. b f(g( x))
[a, b] entweder g'(x )
j f(y) dy = j f(g(x)) g'(x) dx i x = ' y) n- ( ·
bzw.
C
·
g ' ( x) dx = [
g
( b ) f(y) dy
jg (a)
0 oder g'(x)