243 46 4MB
German Pages XI, 265 [272] Year 2020
Georg Hoever
Höhere Mathematik kompakt mit Erklärvideos und interaktiven Visualisierungen 3. Auflage
Höhere Mathematik kompakt
Georg Hoever
Höhere Mathematik kompakt mit Erklärvideos und interaktiven Visualisierungen 3. Auflage
Georg Hoever Fachbereich Elektro- und Informationstechnik Fachhochschule Aachen Aachen, Deutschland
ISBN 978-3-662-62079-3 ISBN 978-3-662-62080-9 (eBook) https://doi.org/10.1007/978-3-662-62080-9 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detail lierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2013, 2014, 2020 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Planung/Lektorat: Annika Denkert Springer Spektrum ist ein Imprint der eingetragenen Gesellschaft Springer-Verlag GmbH, DE und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany
Vorwort Dieses Buch umfasst die Standardthemen der h¨ oheren Mathematik f¨ ur Ingenieure und Naturwissenschaftler. Dabei soll es nicht den Besuch einer Vorlesung oder ein Lehrbuch ersetzen, sondern soll als vorlesungsbegleitende Lekt¨ ure oder als Nachschlagewerk dienen. Ferner wird es von dem parallel erscheinenden Arbeitsbuch h¨ohere Mathematik“ als Referenz genutzt. ” Ziel der Darstellung ist das Verst¨andnis der Mathematik als Werkzeug f¨ ur Ingenieure und Naturwissenschaftler. Auf strenge Beweise wird verzichtet. Um nicht von den wesentlichen Dingen abzulenken, sind die Voraussetzungen zu S¨atzen oder Definitionen oft bewusst knapp gehalten, beispielsweise wird bei √ Verwendung von x nicht immer darauf hingewiesen, dass x eine reelle Zahl mit x ≥ 0 sein muss; solche Dinge sollten sich hoffentlich von selbst verstehen. Bei komplexeren Zusammenh¨angen sind Details in Fußnoten aufgef¨ uhrt. Der inhaltliche Aufbau orientiert sich an einem m¨ oglichen Aufbau einer Vorlesung zur H¨ oheren Mathematik. Zun¨achst werden die Themen der Analysis in einer Variablen vorgestellt (Kapitel 1 bis 6), dann die der linearen Algebra (Kapitel 7 und 8). Abgesehen vom Gebrauch der Winkelfunktionen sind die Themen der linearen Algebra weitestgehend unabh¨ angig von denen der Analysis und k¨onnen daher auch vorgezogen werden. Die Kapitel 9 bis 11 f¨ uhren dann in die Analysis von Funktionen mehrerer Ver¨ anderlicher ein. Die wesentlichen Sachverhalte sind in Definitionen und S¨ atzen hervorgehoben. Bemerkungen geben weitere Erl¨auterungen und zeigen Querbez¨ uge auf. Beispiele f¨ uhren die konkrete Anwendung vor. Die Definitionen, S¨ atze, Bemerkungen und Beispiele sind durchlaufend f¨ ur die einzelnen Abschnitte nummeriert (auch wenn einige Abschnitte nochmals strukturell unterteilt sind). Beispiele, die sich auf eine konkrete Bemerkung beziehen, sind einger¨ uckt und an einer weiteren Nummerierungsebene erkennbar. Da es f¨ ur das Verst¨andnis h¨aufig gewinnbringend ist, Dinge aus verschiedenen Sichtweisen dargeboten zu bekommen, sind am Ende der einzelnen (Unter-) Abschnitte Verweise auf Lehrb¨ ucher abgedruckt, in denen die entsprechenden Themen ausf¨ uhrlich in einer teilweise ¨ahnlichen, teilweise alternativ erg¨ anzenden Darstellung beschrieben sind. Ich hoffe, dass dieses Buch f¨ ur die Studierenden eine hilfreiche Unterst¨ utzung ¨ darstellt und auch von manchen Dozenten als Referenz gesch¨ atzt wird. Uber
v
vi
Vorwort
R¨ uckmeldungen freue ich mich, sowohl was die inhaltliche Darstellung oder fehlende Themen angeht, als auch einfach nur die Nennung von Druckfehlern. Eine Liste der gefundenen Fehler ver¨offentliche ich auf meiner Internetseite www.hoever.fh-aachen.de. An dieser Stelle m¨ochte ich mich bei den vielen Studierenden, Kollegen und Freunden bedanken, namentlich bei Florian Ersch und Reinhard Bodensiek, die zum Entstehen dieses Buches beigetragen haben, sei es durch Anregungen zur Darstellung, zur Digitalisierung oder zu Druckfehlern in den ersten Versionen. Ferner geb¨ uhrt mein Dank dem Springer-Verlag f¨ ur die komplikationslose Zusammenarbeit. Aachen, im September 2012, Georg Hoever
Vorwort zur dritten Auflage
000
001
Durch die digitalen Medien a¨ndert sich auch das Lernverhalten der Studierenden. So suchen diese zunehmend mehr Hilfestellungen durch Erkl¨ arvideos im Internet an Stelle gedruckter Texte. Tats¨ achlich bieten Videos ja auch eine bessere M¨oglichkeit, Formeln zu entwickeln, Querbez¨ uge aufzuzeigen oder Sachverhalte in Animationen zu verdeutlichen. So habe ich die Inhalte dieses Buchs in ca. 5- bis 10-min¨ utigen Videos verfilmt, zum Teil mit Animationen visualisiert und auf Youtube zur Verf¨ ugung gestellt. Die QR-Codes neben dem Text in diesem Buch (s. links) verweisen auf Internetseiten, die die entsprechenden Videos enthalten. Damit hat der Leser die M¨oglichkeit, das entsprechende Thema auch m¨ undlich erkl¨ art zu bekommen mit den erw¨ahnten Vorteilen, dass Formeln allm¨ ahlich entwickelt und Querbez¨ uge besser dargestellt werden k¨onnen. Ich kann mir vorstellen, dass die Videos in dieser Hinsicht f¨ ur das Verstehen hilfreich sind, w¨ ahrend der gedruckte Text zur Wiederholung oder Rekapitulation der Themen genutzt werden kann. Auf der Internetseite www.hm-kompakt.de gibt es eine Zusammenstellung aller Videos geordnet entsprechend der (Unter-)Kapitelstruktur dieses Buches. Dort gibt es auch die M¨oglichkeit, durch Eingabe der dreistelligen Nummer unter dem QR-Code (also 000“ f¨ ur den QR-Code oben) direkt zu dem Video ” zu gelangen. F¨ ur die in den Videos gezeigten Visualisierungen nutze ich Geogebra-Dateien. Diese sind auch u ugbar und ¨ber die Internetseite www.hm-kompakt.de verf¨ erm¨oglichen dem Leser, selbst damit zu experimentieren und damit die Inhalte noch besser zu verinnerlichen. Die Dateien k¨ onnen durch den an entsprechender Stelle neben dem Text platzierten QR-Code mit Koordinatensystem-Symbol wie links bzw. durch die Eingabe der dreistelligen Nummer im Schnellzugriffsfeld der Homepage direkt erreicht werden.
Vorwort
vii
Ich bedanke mich bei Herrn Prof. Frank Hartung und Ren´e Hess, die mich mit dem Video-Equipement und hilfreichen Tipps tatkr¨ aftig unterst¨ utzt haben. Ferner geb¨ uhrt mein Dank Lukas Schnittcher, Finn-Moritz Knoop, Alexander Jodlauk, Lara Schober und Vitali Altuchow, die die Rohaufnahmen der Videos in sorgf¨altiger Weise geschnitten, bearbeitet und in die Webseite integriert haben, Justin Lehnen, der die Geogebra-Visualisierungen programmiert hat, und Calvin K¨ocher, der sich mit guten Anregungen um den Internetauftritt k¨ ummert. In der vorliegenden Auflage wurden die Tipp- oder Druckfehler, die mittlerweile noch entdeckt wurden, berichtigt. Dar¨ uber hinaus gibt es inhaltlich kleinere Modifikationen und Erg¨anzungen gegen¨ uber der vorigen Auflage. Ich hoffe, dass das kombinierte Angebot von schriftlichem Text und m¨ undlichen Erkl¨arungen in Verbindung mit der M¨oglichkeit, die dargestellten Themen mittels Aufgaben im entsprechend strukturierten Arbeitsbuch h¨ ohere Mathe” matik“ zu u ur viele Studierende den Zugang zur H¨ oheren Mathematik ¨ben, f¨ erleichtert. Aachen, im Mai 2020, Georg Hoever
Inhaltsverzeichnis
1
Vorwort . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
v
Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1.1 Elementare Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
1.1.1 Lineare Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
1.1.2 Quadratische Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
1.1.3 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 1.1.4 Gebrochen rationale Funktionen . . . . . . . . . . . . . . . . . . . . . . 19 1.1.5 Trigonometrische Funktionen . . . . . . . . . . . . . . . . . . . . . . . . 24 1.1.6 Potenzregeln und Exponentialfunktionen . . . . . . . . . . . . . . 28 1.1.7 Betrags-Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 1.2 Einige Eigenschaften von Funktionen . . . . . . . . . . . . . . . . . . . . . . . . 33 1.2.1 Symmetrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 1.2.2 Monotonie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 1.2.3 Umkehrbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 1.3 Umkehrfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 1.3.1 Wurzelfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 1.3.2 Arcus-Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 1.3.3 Logarithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 1.4 Modifikation von Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 1.4.1 Verkettung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 1.4.2 Verschiebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 1.4.3 Skalierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 1.4.4 Spiegelung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 2
Komplexe Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 2.1 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 ix
x
Inhaltsverzeichnis 2.2 Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 2.3 Polardarstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3
Folgen und Reihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 3.1 Folgen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 3.2 Reihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 3.3 Potenzreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4
Grenzwerte bei Funktionen und Stetigkeit . . . . . . . . . . . . . . . . . . 85 4.1 Grenzwerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 4.2 Stetigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5
Differenzialrechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 5.1 Differenzierbare Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 5.2 Rechenregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 5.3 Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 5.3.1 Kurvendiskussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 5.3.2 Regel von de L’Hospital . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 5.3.3 Newton-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 5.3.4 Taylor-Polynome und -Reihen . . . . . . . . . . . . . . . . . . . . . . . . 114
6
Integralrechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 6.1 Definition und elementare Eigenschaften . . . . . . . . . . . . . . . . . . . . . 119 6.2 Hauptsatz der Differenzial- und Integralrechnung . . . . . . . . . . . . . 128 6.3 Integrationstechniken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 6.3.1 Einfache Integrationstechniken . . . . . . . . . . . . . . . . . . . . . . . 132 6.3.2 Partielle Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134 6.3.3 Substitution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136 6.3.4 Partialbruchzerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
7
Vektorrechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 7.1 Vektoren und Vektorraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 7.2 Linearkombination . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147 7.3 Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152 7.4 Vektorprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161 7.5 Geraden und Ebenen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
Inhaltsverzeichnis
xi
7.5.1 Geraden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164 7.5.2 Ebenen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169 7.5.3 Schnittpunkte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172 7.5.4 Abst¨ande . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176 8
Lineare Gleichungssysteme und Matrizen . . . . . . . . . . . . . . . . . . . 179 8.1 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 8.2 Gaußsches Eliminationsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 8.3 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194 8.4 Quadratische Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 8.5 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206 8.6 Eigenwerte und -vektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212 8.7 Quadratische Formen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
9
Funktionen mit mehreren Ver¨ anderlichen . . . . . . . . . . . . . . . . . . . 219 9.1 Einf¨ uhrung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219 9.2 Koordinatensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
10 Differenzialrechnung bei mehreren Ver¨ anderlichen . . . . . . . . . . 227 10.1 Partielle Ableitung und Gradient . . . . . . . . . . . . . . . . . . . . . . . . . . . 227 10.2 Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 10.2.1 Lokale Extremstellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 10.2.2 Jacobi-Matrix und lineare Approximation . . . . . . . . . . . . . 235 10.3 Weiterf¨ uhrende Themen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239 10.3.1 Kurven . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239 10.3.2 Kettenregel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241 10.3.3 Richtungsableitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243 10.3.4 Hesse-Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244 11 Integration bei mehreren Ver¨ anderlichen . . . . . . . . . . . . . . . . . . . 249 11.1 Satz von Fubini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249 11.2 Integration in anderen Koordinatensystemen . . . . . . . . . . . . . . . . . 252 Sachverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
1
Funktionen
In diesem Kapitel werden die elementaren Funktionen eingef¨ uhrt: Polynome – insbesondere lineare und quadratische Funktionen –, gebrochen rationale Funktionen, die trigonometrischen und Exponentialfunktionen sowie die Betragsfunktion. Damit k¨onnen dann einige Eigenschaften von Funktionen illustriert werden. Die Umkehrbarkeit f¨ uhrt zu weiteren Funktionen: Wurzel-, Arcus- und Logarithmusfunktionen. Schließlich wird dargestellt, wie man Funktionen modifiziert (verschiebt, skaliert und spiegelt), um sie beispielsweise an konkrete Gegebenheiten anzupassen.
Bemerkung 1.0.1 (Funktionen) Eine Funktion zwischen zwei Mengen M und N wird beschrieben durch 100
f : M → N, x → f (x). Die Angabe M → N“ kennzeichnet, um welche Mengen es sich handelt. ” Dabei heißt • die Menge M Definitionsmenge oder Definitionsbereich, • die Menge N Zielmenge oder Zielbereich.
Die Funktion f ordnet jedem Element aus M genau ein Element aus N zu. Die Zuordnung wird durch die Abbildungsvorschrift x → f (x)“ beschrie” ben. Dabei muss nicht jeder Wert aus N angenommen werden, s. Abb. 1.1. Bildmenge f (M ) a
b
3
c Definitionsmenge M
1
2
d f
5 4 Zielmenge N
Abb. 1.1 Eine Funktion f : M → N mit Definitions-, Ziel- und Bildmenge.
Die Bildmenge f (M ) ist die Menge aller Werte aus N , die tats¨ achlich als Funktionswert angenommen werden: f (M ) = {f (x)|x ∈ M }. © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 G. Hoever, Höhere Mathematik kompakt, https://doi.org/10.1007/978-3-662-62080-9_1
1
2
1 Funktionen In der Formel liest man den senkrechten Strich als f¨ ur die gilt“, hier also ” f (M ) ist die Menge aller f (x), f¨ ur die x ∈ M gilt“, was bedeutet, dass man ” alle Funktionswerte f (x) aufsammelt, w¨ahrend x die Menge M durchl¨ auft. Der Begriff Wertemenge bezeichnet in der Literatur manchmal die Zielmenge und manchmal die Bildmenge und wird hier nicht weiter verwendet. Oft ist klar, um welche Mengen es sich handelt; dann reicht allein die Angabe von f (x) aus. Im Folgenden ist meistens M = N = R. Beispiel 1.0.1.1
f (x)
Durch f : R → R,
x → x2
x wird jeder reellen Zahl x die reelle Zahl x2 zu2 geordnet. Statt x → x “ schreibt man auch ” Abb. 1.2 Parabel. f (x) = x2“. ” Bei der Darstellung von f als Parabel stellt man die Definitionsmenge R als waagerechte Achse dar und die Zielmenge R als senkrechte Achse. Durch die Punkte der Parabel wird die Zuordnung beschrieben.
Die Bildmenge ist f (R) = R≥0 .
1.1 Elementare Funktionen 1.1.1 Lineare Funktionen
Definition 1.1.1 (lineare Funktion/Gerade) 101
Eine Funktion der Form f : R → R, f (x) = mx + a heißt lineare Funktion oder Gerade.
Bemerkung 1.1.2 zur Bezeichnungsweise Genau genommen bezeichet Gerade den Funktionsgrafen zu einer linearen Funktion.
1.1 Elementare Funktionen
3
Bemerkungen 1.1.3 (Bedeutung der Parameter a und m) 1. Bei f (x) = mx + a gibt m die Steigung und a den y-Achsenabschnitt an. 102 f (x)
f (x) m 1
a
Δy = m · Δx
2m Δx
2
a x
x
Abb. 1.3 Gerade mit y-Achsenabschnitt a und Steigungsdreiecken.
2. Der y-Achsenabschnitt a ist der Wert, in dem die Gerade die y-Achse schneidet: • a > 0: Der Schnittpunkt liegt oberhalb der x-Achse.
• a < 0: Der Schnittpunkt liegt unterhalb der x-Achse.
• a = 0: Die Gerade geht durch den Ursprung (es ist f (x) = mx).
Abb. 1.4 und 1.5 zeigen Geraden mit unterschiedlichen y-Achsenabschnitten. 3. Die Steigung m gibt an, um wieviel die Gerade bei der Erh¨ ohung von x um 1 steigt. Bei der Erh¨ohung von x auf x + Δx steigt die Gerade um Δy = m · Δx, s. Abb. 1.3; es ist also m =
Δy . Δx
• m > 0: Die Gerade steigt. • m < 0: Die Gerade f¨allt.
• m = 0: Die Gerade ist parallel zur x-Achse (es ist f (x) = a).
• |m| = 1, d.h. m = ±1: Die Gerade hat eine diagonale“ Steigung ” aufw¨arts bzw. abw¨arts.
• |m| > 1: Die Gerade besitzt eine steilere als diagonale Steigung.
• |m| < 1: Die Gerade besitzt eine flachere als diagonale Steigung.
Abb. 1.4 und 1.5 zeigen Geraden mit unterschiedlichen Steigungen. f (x)
f (x)
f (x)
1
1
1
1
f (x) = 3x + 1
x
1
f (x) = x − 1
x
1
x
f (x) = 21 x
Abb. 1.4 Geraden mit verschiedenen Achsenabschnitten und positiven Steigungen.
4
1 Funktionen f (x)
f (x)
1
f (x)
1
1
x
1
x
1
f (x) = − 12 x − 1
f (x) = 1
x
1
f (x) = −2x + 2
Abb. 1.5 Geraden mit Steigung 0 und negativen Steigungen.
Bemerkung 1.1.4 (Nullstellen) Die Nullstelle einer Funktion f , also den Schnittpunkt mit der x-Achse, erh¨alt man durch Aufl¨osen der Gleichung f (x) = 0. Beispiel 1.1.4.1 Die Nullstelle von f (x) = 3x + 1 (vgl. Abb. 1.4 links) erh¨ alt man durch 3x + 1 = 0
⇔
3x = −1
⇔
x = − 31 .
Bemerkungen 1.1.5 (Festlegung einer Geraden) 1. Eine Gerade wird durch zwei Punkte eindeutig festgelegt, s. Abb. 1.6. 103
Den funktionalen Zusammenhang f (x) = mx+a erh¨alt man bei der Vorgabe der Punkte P1 = (x1 , y1 ) und P2 = (x2 , y2 ) wie folgt:
y
P2
y2
y2 − y1
P1
y1
x 2 − x1 x1
Die Steigung m ergibt sich durch
x x2
Abb. 1.6 Gerade durch zwei y2 − y 1 . Punkte. x2 − x1 Den Wert von a kann man dann durch Einsetzen eines der beiden Punkte berechnen, z.B. durch y2 = mx2 + a, also a = y2 − mx2 .
m =
Beispiel 1.1.5.1
f (x)
Die Gerade durch P1 = (−1, 3) und P2 = (2, 1), s. Abb. 1.7, besitzt die Steigung m =
P1 P2 1
−2 2 1−3 = = − . 2 − (−1) 3 3
x 1
Den Wert von a in der Funktionsvorschrift f (x) = mx + a kann man durch Einsetzen von P2 bestimmen: 2 ! 1 = f (2) = − · 2 + a 3
⇔
Abb. 1.7 Gerade durch zwei konkrete Punkte.
a = 1+
Die Geradengleichung ist also f (x) = − 23 x + 37 .
4 7 = . 3 3
1.1 Elementare Funktionen 2. Eine Gerade wird durch einen Punkt P = (x0 , y0 ) und die Steigung m eindeutig festgelegt, s. Abb. 1.8. Den Wert von a bei einer Funktionsdarstellung f (x) = mx + a k¨onnte man durch Einsetzen des Punktes bestimmen. Man kann die Geradengleichung aber auch mit der Punkt-Steigungsformel aus dem folgenden Satz 1.1.6 direkt hinschreiben.
5
y
y0
m
P 1
x
x0 Abb. 1.8 Gerade durch einen Punkt mit vorgegebener Steigung.
Satz 1.1.6 (Punkt-Steigungs-Formel) Die Gerade durch den Punkt (x0 , y0 ) mit Steigung m wird beschrieben durch f (x) = y0 + m · (x − x0 ).
Beispiel 1.1.7 f (x)
Die Gerade durch den Punkt (1, 2) mit Steigung 21 (s. Abb. 1.9) wird beschrieben durch 1 1 1 · (x − 1) = 2 + x − 2 2 2 3 1 = x+ . 2 2
2
P
f (x) = 2 +
1
x
Abb. 1.9 Gerade durch P mit Steigung 12 .
Bemerkung 1.1.8 Die Punkt-Steigungs-Formel kann man auch nutzen, wenn eine Gerade durch zwei Punkte P1 = (x1 , y1 ) und P2 = (x2 , y2 ) vorgegeben ist: −y1 und nutzt dann die PunktDie Steigung berechnet man durch m = xy22 −x 1 Steigungs-Formel mit einem der beiden Punkte.
Beispiel 1.1.8.1 (vgl. Beispiel 1.1.5.1) Gesucht ist die Funktionsvorschrift der Geraden durch P1 = (−1, 3) und P2 = (2, 1). 1−3 = − 32 erh¨ alt man durch die PunktMit der Steigung m = 2−(−1) Steigungs-Formel angewendet auf P1 :
2 2 2 · x − (−1) = 3 − x − 3 3 3 7 2 = − x+ . 3 3
f (x) = 3 +
−
104
6
1 Funktionen
Bemerkung 1.1.9 (st¨uckweise lineare Funktionen) Manchmal ist eine Funktion f¨ ur verschiedene Argumente x durch unterschiedliche Terme definiert. Beispiel 1.1.9.1 Die sogenannte Heaviside-Funktion H(x) ist eine st¨ uckweise lineare Funktion, die f¨ ur negative Werte gleich 0 und f¨ ur positive Werte gleich 1 ist, s. Abb. 1.10: 0, f¨ ur x ≤ 0, H : R → R, x → 1, f¨ ur x > 0.
H(x)
1
x Abb. 1.10 Die HeavisideFunktion.
Die Definition an der Stelle 0 ist in der Literatur uneinheitlich. Hier wird H(0) = 0 gesetzt; es ist aber auch H(0) = 1 und H(0) = 12 u ¨blich.
Bemerkung 1.1.10 (zueinander senkrechte Geraden) f (x)
Man kann sich u ¨berlegen (s. 7.5.5, 4.), dass zwei Geraden mit den Steigungen m1 und m2 genau dann senkrecht zueinander stehen, wenn gilt
1 1
m1 · m2 = −1.
x
Abb. 1.11 Zueinander senkrechte Geraden.
Beispiel 1.1.10.1 Die Geraden zu f1 (x) = 2x − 1
und
1 f2 (x) = − x + 2 2
stehen senkrecht aufeinander, s. Abb. 1.11.
1.1.2 Quadratische Funktionen
Definition 1.1.11 (quadratische Funktion/Parabel) 105
Eine Funktion der Form f : R → R, f (x) = ax2 + bx + c heißt quadratische Funktion oder Parabel(-funktion).
1.1 Elementare Funktionen
7
Bemerkung 1.1.12 zur Bezeichnungsweise Genau genommen bezeichet Parabel den Funktionsgrafen zu einer quadratischen Funktion.
Bemerkung 1.1.13 (Bedeutung der Parameter) uhrender Koeffizient. Er bestimmt die Der Vorfaktor a vor x2 heißt auch f¨ Form der Parabel: • a > 0: Die Parabel ist nach oben ge¨offnet.
• a < 0: Die Parabel ist nach unten ge¨ offnet.
• |a| groß: Die Parabel hat eine spitze/steile Form.
• |a| klein: Die Parabel hat eine flache/stumpfe Form.
Abb. 1.12 zeigt typische Bilder von Parabeln bei verschiedenen Werten a. y
y
y
x a > 0, |a| groß
x a < 0, |a| groß
y
x a > 0, |a| klein
x a < 0, |a| klein
Abb. 1.12 Parabeln mit verschiedenen f¨ uhrenden Koeffizienten a und markierten Scheitelpunkten.
Der Parameter c in der Darstellung f (x) = ax2 + bx + c kennzeichnet den Schnittpunkt mit der y-Achse: f (0) = c. Die Bedeutung des Parameters b ist nicht so transparent. H¨aufig ist der f¨ uhrende Koeffizient gleich 1. Dann benutzt man u ¨blicherweise die Parameterbuchstaben p statt b und q statt c, also x2 + px + q statt 1 · x2 + bx + c.
Bemerkungen 1.1.14 (Scheitelpunkt(-form) und quadratische Erg¨anzung) 1. Der Scheitelpunkt einer Parabel ist der oberste bzw. unterste Punkt der Kurve, s. die markierten Punkte in Abb. 1.12. 2. Ist eine quadratische Funktion in der Scheitelpunktform f (x) = a(x − d)2 + e. dargestellt, kann man den Scheitelpunkt P = (d, e) direkt ablesen. Der Parameter a ist dabei derselbe wie in der Darstellung f (x) = ax2 + bx + c, n¨amlich der Vorfaktor vor x2 . Die in Bemerkung 1.1.13 dargestellte Bedeutung f¨ ur die Form der Parabel gilt also entsprechend.
106
8
1 Funktionen
3. Aus einer Darstellung entsprechend der Definition 1.1.11 erh¨ alt man die Scheitelpunktform durch eine quadratische Erg¨ anzung: Ist der f¨ uhrende Koeffizient gleich 1, besitzt die Funktion f also die Darstellung 107
f (x) = x2 + px + q, ist das Ziel eine Umformung zu f (x) = (x − d)2 + e = x2 − 2xd + d2 + e. Ein Vergleich der Koeffizienten von x zeigt, dass p = −2d, also d = − p2 sein muss. 2 anzt man d2 = p2 Um das vollst¨andige Binom x2 −2xd+d2 zu erhalten, erg¨ und zieht den Ausdruck wieder ab (das ist die namensgebende quadratische Erg¨anzung). Beispiel 1.1.14.1
f (x)
Zur Funktion f (x) = x2 − 6x + 8 erh¨alt man f (x) = x2 − 6x + 32 −32 + 8
=
x2 − 2dx + d2
+e
(x − 3)2
−1.
Der Scheitelpunkt ist also (3, −1), s. Abb. 1.13.
1 x
1
Abb. 1.13 Funktionsgraf zu f .
Ist der f¨ uhrende Koeffizient a = 1, kann man a ausklammern, dann wie oben beschrieben quadratisch erg¨anzen und schließlich wieder ausmultiplizieren. 108
Beispiel 1.1.14.2 g(x)
alt Zur Funktion g(x) = −2x2 + 4x + 6 erh¨ man g(x) = −2 · (x2 − 2x − 3) = −2 · (x2 − 2x + 1 − 1 − 3) = −2 · ((x − 1)2 − 1 − 3)
1
= −2 · ((x − 1)2 − 4)
= −2 · (x − 1)2 + 8.
Der Scheitelpunkt ist (1, 8), s. Abb. 1.14.
1
x
Abb. 1.14 Funktionsgraf zu g.
Nullstellenbestimmung bei quadratischen Funktionen Zur Bestimmung der Nullstellen einer quadratischen Funktion gibt es mehrere M¨oglichkeiten. Die ersten beiden im folgenden vorgestellten M¨ oglichkeiten beziehen sich dabei auf den Fall, dass der f¨ uhrende Koeffizient gleich 1 ist, also die Funktion in der Form f (x) = x2 + px + q vorliegt.
1.1 Elementare Funktionen
9
1. Nullstellenbestimmung mit Hilfe der p-q-Formel.
Satz 1.1.15 (p-q-Formel) Die Funktion f (x) = x2 + px + q besitzt die Nullstellen p p 2 x1/2 = − ± − q, 2 2
falls der Ausdruck unter der Wurzel ≥ 0 ist.
Bemerkung 1.1.16 zur p-q-Formel 2 Den Ausdruck p2 −q, der bei der p-q-Formel unter der Wurzel steht, nennt man auch Diskriminante.
Beispiele 1.1.17 1. Die Funktion f (x) = x2 − 6x + 8 besitzt die Nullstellen 2 √ −6 −6 ± x = − − 8 = 3 ± 9 − 8 = 3 ± 1, 2 2 also die Nullstellen 2 und 4 (vgl. Abb. 1.13). 2. Bei der Funktion f (x) = x2 + 2x + 3 liefert Satz 1.1.15 2 √ 2 2 x = − ± − 3 = −1 ± −2, 2 2 also keine L¨osung in den reellen Zahlen.
Bemerkung 1.1.18 (p-q-Formel bei f¨uhrendem Koeffizienten ungleich 1) Ist der f¨ uhrende Koeffizient ungleich 1, so kann man ihn ausklammern bzw. durch ihn dividieren und dann die p-q-Formel anwenden. Beispiel 1.1.18.1 Gesucht sind die Nullstellen von g(x) = −2x2 + 4x + 6. Es ist !
⇔
0 = g(x) = −2 · (x2 − 2x − 3)
0 = x2 − 2x − 3.
Mit der p-q-Formel erh¨alt man 2 √ −2 −2 ± − (−3) = +1 ± 1 + 3 = 1 ± 2, x = − 2 2 also die Nullstellen −1 und 3 (vgl. Abb. 1.14).
109
10
1 Funktionen
2. Nullstellenraten mit Hilfe des Satzes von Vieta.
Satz 1.1.19 (Satz von Vieta) Besitzt die Funktion f (x) = x2 + px + q zwei Nullstellen x1 und x2 , so gilt x1 + x2 = −p
und
x1 · x2 = q.
Bemerkungen 1.1.20 zur Anwendung des Satzes von Vieta 1. Die Tatsache x1 · x2 = q kann in zweierlei Hinsicht ausgenutzt werden:
1. Ist q ganzzahlig, und vermutet man, dass die Nullstellen ganze Zahlen sind, so m¨ ussen sie Teiler von q sein.
alt man x2 = 2. Ist eine Nullstelle x1 bekannt, so erh¨
q x1 .
Beispiel 1.1.20.1 (vgl. Beispiel 1.1.17, 1.) Vermutet man, dass die Funktion f (x) = x2 − 6x + 8 ganzzahlige Nullstellen hat, so kommen nur ±1, ±2, ±4 und ±8 in Frage. Ausprobieren zeigt, dass +2 eine Nullstelle ist. Nach Satz 1.1.19 gilt dann f¨ ur die zweite Nullstelle 2 · x2 = 8, also x2 = 4.
2. Ist der f¨ uhrende Koeffizient ungleich 1, so kann man den Satz von Vieta nach Ausklammern bzw. Dividieren durch diesen Koeffizienten anwenden. Beispiel 1.1.20.2 (vgl. Beispiel 1.1.18.1) Gesucht sind die Nullstellen von g(x) = −2x2 + 4x + 6. Es ist !
0 = g(x) = −2 · (x2 − 4x + 3)
⇔
0 = x2 − 4x + 3.
R¨at man x = −1 als Nullstelle, so erh¨ alt mit dem Satz von Vieta direkt als andere Nullstelle 3. 3. Nullstellenbestimmung mit der abc-Formel.
Satz 1.1.21 (abc-Formel) 110
Die Funktion f (x) = ax2 + bx + c besitzt die Nullstellen 2 b b c x = − ± − , 2a 2a a falls der Ausdruck unter der Wurzel ≥ 0 ist.
1.1 Elementare Funktionen
11
Bemerkungen 1.1.22 zur abc-Formel 1. Eine alternative Formulierung der abc-Formel, die man dadurch erh¨ alt, dass man alles auf einen Bruchstrich schreibt, ist √ −b ± b2 − 4ac . x = 2a b 2 2. Den Ausdruck 2a − ac bzw. b2 − 4ac, der bei der abc-Formel unter der Wurzel steht, nennt man auch Diskriminante. 3. Die abc-Formel erh¨alt man wegen ax2 + bx + c = 0
⇔
c b = 0 x2 + x + a a
aus der p-q-Formel (Satz 1.1.15) mit p =
b a
und q = ac .
Beispiel 1.1.23 (vgl. Beispiel 1.1.18.1) Gesucht sind die Nullstellen von f (x) = −2x2 + 4x + 6. Mit der abc-Formel erh¨alt man als Nullstellen 2 √ 4 6 4 ± = +1 ± 1 + 3 = 1 ± 2, − x = − 2 · (−2) 2 · (−2) −2 also −1 und 3. 4. Nullstellenbestimmung durch Aufl¨osen der Scheitelpunktform. Ausgehend von der Scheitelpunktform kann man Nullstellen durch elementare Umformungen bestimmen.
Beispiele 1.1.24 1. Gesucht sind die Nullstellen der Funktion g(x) = −2x2 + 4x + 6 = −2 · (x − 1)2 + 8 (s. Beispiel 1.1.14.2). Es ist
⇔
⇔ ⇔ ⇔ ⇔
−2 · (x − 1)2 + 8 = −2 · (x − 1)2
0
= −8
(x − 1)2 = 4 x−1 = ±2 x = 1±2 x = −1 oder x = 3.
12
1 Funktionen
2. Gesucht sind die Nullstellen der Funktion
f (x)
2
f (x) = x + 2x + 3 (vgl. Beispiel 1.1.17, 2.). Eine quadratische Erg¨anzung liefert 1
f (x) = x2 + 2x + 3
x 1
2
= (x + 1) − 1 + 3
Abb. 1.15 Parabel ohne Nullstellen.
= (x + 1)2 + 2, also f (x) = 0
⇔
(x + 1)2 + 2 = 0
⇔
(x + 1)2 = −2.
In der letzten Gleichung ist das Quadrat links f¨ ur reelle Zahlen immer gr¨ oßer oder gleich Null, die Zahl rechts aber negativ, so dass man sieht, dass es keine L¨osung in den reellen Zahlen gibt. Der Funktionsgraf schneidet die x-Achse nicht, s. Abb. 1.15.
Zusammenfassung 1.1.25 zur Nullstellenbestimmung Nullstellen einer quadratischen Funktion kann man bestimmen 1. durch die p-q-Formel (Satz 1.1.15), ggf. muss vorher der Koeffizient von x2 ausgeklammert bzw. durch ihn dividiert werden, 2. durch Raten und mit Hilfe des Satzes von Vieta (Satz 1.1.19), ggf. muss vorher der Koeffizient von x2 ausgeklammert bzw. durch ihn dividiert werden, 3. durch die abc-Formel (Satz 1.1.21), 4. durch quadratische Erg¨anzung und Aufl¨ osen.
Bei bekannten Nullstellen gibt es eine weitere Darstellungsm¨ oglichkeit einer quadratischen Funktion:
Satz 1.1.26 (Faktorisierung durch Nullstellen) 111
Besitzt die Funktion f (x) = ax2 + bx + c zwei Nullstellen x1 und x2 , so ist f (x) = a(x − x1 )(x − x2 ).
1.1 Elementare Funktionen
13
Bemerkung 1.1.27 (Faktorisierung und der Satz von Vieta) Ist der f¨ uhrende Koeffizient gleich 1, also f (x) = x2 + px + q, so ergibt sich bei zwei Nullstellen x1 und x2 f (x) = (x − x1 )(x − x2 ). Durch Ausmultiplizieren erh¨alt man dann f (x) = (x − x1 )(x − x2 ) = x2 − xx2 − x1 x + x1 x2 = x2 − (x1 + x2 )x + x1 x2 .
Ein Koeffizientenvergleich mit der urspr¨ unglichen Funktion liefert nun den Satz von Vieta (Satz 1.1.19), n¨amlich p = −(x1 + x2 )
und
q = x 1 x2 .
Beispiele 1.1.28 1. Die Funktion f (x) = x2 − 6x + 8 besitzt die Nullstellen x = 2 und x = 4 (s. Beispiel 1.1.17, 1.). Es ist dann (wie man durch Ausmultiplizieren u ufen kann) ¨berpr¨ f (x) = x2 − 6x + 8 = (x − 2)(x − 4). 2. Die Funktion g(x) = −2x2 + 4x + 6 besitzt die Nullstellen x = −1 und x = 3 (s. Beispiel 1.1.18.1). Es gilt also g(x) = −2 · (x − (−1)) · (x − 3) = −2 · (x + 1) · (x − 3).
Bemerkungen 1.1.29 (Festlegung einer Parabel) 1. Drei Punkte mit unterschiedlichen x-Werten legen eindeutig eine Parabel fest.
112
Beispiel 1.1.29.1 Gesucht ist die Funktionsvorschrift f (x) = ax2 + bx + c zu einer Parabel durch (−1, 1), (0, 2) und (2, 0), s. Abb. 1.16. Einsetzen der Punkte liefert
f (x) 113 1 1
x
!
1 = f (−1) = a − b + c !
f (0)
=
!
f (2)
= 4a + 2b + c
2 = 0 =
c
Abb. 1.16 Parabel durch drei Punkte.
Setzt man c = 2 aus der mittleren Gleichung in die erste und letzte
14
1 Funktionen Gleichung ein, erh¨alt man a − b = −1
und
4a + 2b = −2
⇔
2a + b = −1
Durch Addition der Gleichungen folgt 3a = −2, also a = − 32 , und dann 1 2 b = a+1 = − +1 = . 3 3 Die Parabelgleichung ist also 2 1 f (x) = − x2 + x + 2. 3 3 2. Kennt man weitere Eigenschaften der Parabel, so bieten sich ggf. andere Ans¨atze f¨ ur die Funktionsgleichung an: • Kennt man den Scheitelpunkt (d0 , e0 ), so kann man f (x) = a(x − d0 )2 + e0 mit unbekanntem a ansetzen. • Kennt man Nullstellen x1 und x2 , bietet sich eine Ansatzfunktion f (x) = a(x − x1 )(x − x2 ) entsprechend Satz 1.1.26 an. Beispiel 1.1.29.2 Gesucht ist eine Funktionsvorschrift f f¨ ur eine Parabel mit den Nullstellen −1 und 4, die durch den Punkt (1, 2) f¨ uhrt, s. Abb. 1.17. Auf Grund der Nullstellen hat f die Gestalt
f (x) = a · (x − (−1)) · (x − 4) = a · (x + 1) · (x − 4). Einsetzen des Punktes (1, 2) liefert !
2 = f (1) = a · (1 + 1) · (1 − 4) = −6a 1 ⇔ a = − . 3
f (x) 1
x 1
Eine Funktionsvorschrift ist also 1 f (x) = − · (x + 1) · (x − 4). 3
Abb. 1.17 Parabel mit vorgegebenen Nullstellen.
1.1 Elementare Funktionen
15
1.1.3 Polynome
Definition 1.1.30 (Polynom) Eine Funktion der Form
114
f : R → R, f (x) = an xn + an−1 xn−1 + · · · + a1 x + a0 heißt Polynom(-funktion) (vom Grad n, falls an = 0 ist).
Bemerkung 1.1.31 zu Bezeichnungsweisen Die Zahlen ak ∈ R heißen Koeffizienten des Polynoms; a0 nennt man auch uhrenden Koeffizienten. den absoluten Koeffizienten, an den f¨
Beispiele 1.1.32 1. Die Funktion f (x) = 2x3 − 5x2 + 1 ist ein Polynom vom Grad 3. 2. Polynome vom Grad 2 bzw. 1 sind quadratische bzw. lineare Funktionen.
Satz 1.1.33 (Festlegung eines Polynoms) Die Vorgabe von n + 1 Punkten mit unterschiedlichen x-Werten legt eindeutig ein Polynom vom Grad kleiner oder gleich n fest.
Bemerkung 1.1.34
115
116
Satz 1.1.33 verallgemeinert die Aussage, dass zwei Punkte eine Gerade (s. Bemerkung 1.1.5, 1.) und drei Punkte eine Parabel (s. Bemerkung 1.1.29, 1.) eindeutig festlegen.
Satz 1.1.35 (Abspaltung eines Linearfaktors) Ist p ein Polynom vom Grad n ≥ 1 und p(a) = 0, so gibt es ein Polynom q(x) vom Grad n − 1 mit p(x) = (x − a) · q(x).
Bemerkungen 1.1.36 1. Der Faktor (x − a) heißt Linearfaktor. 2. Bei bekannter Nullstelle a kann man q mittels Polynomdivision berechnen.
117
16
1 Funktionen Beispiel 1.1.36.1 Das Polynom p(x) = x3 − 5x2 + 2x + 8 besitzt die Nullstelle x1 = −1. Bei einer Polynomdivision durch (x − (−1)) = (x + 1) erh¨ alt man (x3 −5x2 +2x +8 ) : (x + 1) = x2 − 6x + 8, −(x3 + x2 ) −6x2 +2x −(−6x2 −6x) 8x +8 −( 8x +8) 0 also p(x) = (x + 1) · q(x) mit q(x) = x2 − 6x + 8. Statt einer Polynomdivision kann man auch das Horner-Schema nutzen, auf das hier aber nicht weiter eingegangen wird.
Bemerkung 1.1.37 (Abspaltung mehrerer Linearfaktoren) 118
Ist x1 eine Nullstelle eines Polynoms p(x) und p(x) = (x − x1 ) · q(x), so sind Nullstellen von q auch Nullstellen von p. Man kann weitere Linearfaktoren abspalten und erh¨alt p(x) = (x − x1 ) · (x − x2 ) · . . . · (x − xn ) · an p(x) = (x − x1 ) · . . . · (x − xk ) · r(x)
oder
mit einem nullstellenfreien Polynom r(x). Beispiele 1.1.37.1 1. Das Polynom p(x) = x3 − 5x2 + 2x + 8 besitzt die Nullstelle x1 = −1, und nach Beispiel 1.1.36.1 ist p(x) = (x + 1) · (x2 − 6x + 8). Das Restpolynom q(x) = x2 − 6x + 8 kann man mittels seiner Nullstellen 2 und 4 weiter faktorisieren, s. Bsp. 1.1.28, 1.: q(x) = (x − 2) · (x − 4).
Damit ist
p(x) = (x + 1) · (x − 2) · (x − 4). 2. Das Polynom p(x) = x3 − x2 + 2x − 2 besitzt die Nullstelle x1 = 1. Man erh¨alt (beispielsweise mit Polynomdivision) p(x) = (x − 1) · q(x)
mit
q(x) = x2 + 2.
Das Restpolynom q ist nullstellenfrei.
1.1 Elementare Funktionen
17
Ist der f¨ uhrende Koeffizient an des Polynoms gleich 1, und gelingt eine vollst¨andige Zerlegung in Linearfaktoren, so ist das Produkt der Nullstellen ggf. bis auf das Vorzeichen gleich dem absoluten Koeffizienten. Durch Ausmultiplizieren sieht man beispielsweise bei x3 + ax2 + bx + c = (x − x1 )(x − x2 )(x − x3 ), dass sich c = −x1 · x2 · x3 ergibt. Beispiel 1.1.37.2 (vgl. Beispiel 1.1.37.1, 1.) Das Polynom p(x) = x3 − 5x2 + 2x + 8 besitzt die Nullstellen −1, 2 und 4 mit Produkt gleich −8. Den Zusammenhang zum absoluten Koeffizienten 8 von p sieht man durch Ausmultiplizieren der Darstellung x3 − 5x2 + 2x + 8 = (x + 1) · (x − 2) · (x − 4) = (x − (−1))(x − 2)(x − 4). Beim Nullstellenraten“ kann man daher zun¨ achst die Teiler dieses absolu” ten Koeffizienten testen.
Satz 1.1.38 Jedes Polynom kann dargestellt werden als Produkt von linearen und nullstellenfreien quadratischen Polynomen.
Beispiel 1.1.39 Das Polynom p(x) = x4 + 1 ist nullstellenfrei. Es l¨ asst sich als Produkt von zwei nullstellenfreien quadratischen Polynomen ausdr¨ ucken: √ √ x4 + 1 = (x2 + 2x + 1) · (x2 − 2x + 1). Man kann leicht nachrechnen, dass diese Zerlegung richtig ist; die Berechnung einer solchen Zerlegung ist allerdings schwierig, wenn man nicht komplexe Zahlen (s. Kapitel 2) nutzt. Manchmal kann man mehrfach den gleichen Linearfaktor ausklammern:
Definition 1.1.40 (mehrfache Nullstelle) Ist p(x) = (x − a)k · q(x),
q(a) = 0,
so heißt a auch k-fache Nullstelle; k heißt Vielfachheit der Nullstelle.
18
1 Funktionen
Beispiel 1.1.41 Die Funktion f (x) = (x − 1)2 · (x + 3) besitzt in 1 eine doppelte und in −3 eine einfache Nullstelle.
Bemerkung 1.1.42 (Nullstellen und Funktionsverlauf) 119
120
Das Verhalten der Nullstelle 0 bei den Funktionen f (x) = xn (s. Abb. 1.18) entspricht dem einer n-fachen Nullstelle x0 einer beliebigen Funktion:
x2
1
• Ist n gerade, so wird die x-Achse bei x0 nur ber¨ uhrt; es findet kein Vorzeichenwechsel statt. • Ist n ungerade, so gibt es bei x0 einen Vorzeichenwechsel.
f (x)
x4
x
1 x3 x5
Abb. 1.18 Funktionsgrafen zu f (x) = xn .
Kennt man s¨amtliche Nullstellen eines Polynoms inklusive Vielfachheit, so kann man den Funktionsverlauf grob skizzieren: Das Vorzeichen des f¨ uhrenden Koeffizienten kennzeichnet den Verlauf f¨ ur große x (gegen +∞). Bei den Nullstellen ¨ andert sich dann jeweils das Vorzeichen entsprechend obiger Regel. Beispiele 1.1.42.1 Abb. 1.19 zeigt Funktionsskizzen zu 1. f (x) = (x − 1)2 · (x + 3) (Abb. 1.19 links)
mit doppelter Nullstelle bei 1 und einfacher Nullstelle bei −3,
2. p(x) = (x + 1) · (x − 2) · (x − 4) (Abb. 1.19 Mitte) mit einfachen Nullstellen bei −1, 2 und 4,
3. g(x) = −(x + 1)2 · (x − 2) (Abb. 1.19 rechts)
mit doppelter Nullstelle bei −1, einfacher Nullstelle bei 2 und negativem Vorfaktor. f (x)
p(x)
1
x
g(x)
1
x
Abb. 1.19 Funktionsskizzen anhand des Nullstellen-Verhaltens.
1
x
1.1 Elementare Funktionen
19
1.1.4 Gebrochen rationale Funktionen
Definition 1.1.43 (gebrochen rationale Funktion) Der Quotient zweier Polynome heißt (gebrochen) rationale Funktion.
Beispiel 1.1.44 Die Funktion f (x) =
x3 + x2 − 2x + 1 x2 + 2x + 1
ist eine gebrochen rationale Funktion.
Bemerkung 1.1.45 (echt gebrochen rational) Ist der Z¨ahlergrad kleiner als der Nennergrad, so heißt die Funktion echt gebrochen rational. Ist der Z¨ahlergrad gr¨ oßer oder gleich dem Nennergrad, so kann (beispielsweise durch Polynomdivision) ein Polynom abgespalten werden. Beispiel 1.1.45.1 Die Funktion f (x) =
x3 + x2 − 2x + 1 x2 + 2x + 1
ist nicht echt gebrochen rational. Es ist (x3 + x2 − 2x+1 ) : (x2 + 2x + 1) = x − 1 + −(x3 +2x2 + x) − x2 − 3x+1 −(− x2 − 2x−1) −x+2
−x+2 x2 +2x+1 ,
also f (x) = x − 1 +
−x + 2 + 2x + 1
x2
.
echt gebrochen rational
Bemerkung 1.1.46 (Partialbruchzerlegung) Echt gebrochen rationale Funktionen kann man entsprechend der linearen und quadratischen Anteile des Nennerpolynoms n(x) nach Satz 1.1.38 in die Summe einfacher Br¨ uche (sogenannter Partialbr¨ uche) zerlegen:
121
20
1 Funktionen a) Eine einfache Nullstelle a von n(x) f¨ uhrt zu einem Partialbruch b) Eine k-fache Nullstelle a von n(x) f¨ uhrt zu Partialbr¨ uchen
122
. . .,
A x−a .
A1 A2 x−a , (x−a)2 ,
Ak . (x−a)k
123
c) Ein quadratischer nullstellenfreier Anteil x2 + px + q von n(x) f¨ uhrt zu mit linearem Z¨ a hler. einem Partialbruch x2Ax+B +px+q
124
Dabei sind A, Ai und B Konstanten, die man berechnen kann, indem man die Partialbr¨ uche wieder auf einen Nenner schreibt und dann in den Z¨ ahlern einen Koeffizientenvergleich durchf¨ uhrt oder spezielle x-Werte einsetzt. Beispiel 1.1.46.1 Die Funktion f (x) =
x+5 x2 − 2x − 3
besitzt einen Nenner mit Nullstellen −1 und 3; es ist x2 − 2x − 3 = (x + 1)(x − 3). Nach a) gibt es dann eine Darstellung A B x+5 = + x2 − 2x − 3 x+1 x−3 mit noch zu bestimmenden Konstanten A und B. Zur Bestimmung von A und B bringt man die rechte Seite durch entsprechende Erweiterungen auf einen Bruchstrich: x2
A B A(x − 3) + B(x + 1) x+5 = + = . − 2x − 3 x+1 x−3 (x + 1)(x − 3)
Da die Nenner gleich sind, m¨ ussen auch die Z¨ ahler u ¨bereinstimmen. Man kann nun A und B bestimmen durch 1. Koeffizientenvergleich im Z¨ahler bei der ausmultiplizierten Form x + 5 = A(x − 3) + B(x + 1) = (A + B)x − 3A + B. Dies f¨ uhrt • f¨ ur den Koeffizienten von x“ zu 1 = A + B, ” • f¨ ur den absoluten Koeffizienten zu 5 = −3A + B.
Durch Subtraktion der Gleichungen erh¨ alt man −4 = 4A, also A = −1 und damit dann B = 1 − A = 2.
2. Einsetzen geschickter x-Werte im Z¨ ahler. Dabei bietet es sich an, die urspr¨ unglichen Nullstellen in die Z¨ ahler x + 5 = A(x − 3) + B(x + 1)
1.1 Elementare Funktionen
21
einzusetzen: • x = 3 f¨ uhrt zu 8 = B · 4, also B = 2,
• x = −1 f¨ uhrt zu 4 = A(−1 − 3) = −4A, also A = −1.
Man erh¨alt also
1 2 x+5 = − + . x2 − 2x − 3 x+1 x−3 Beispiel 1.1.46.2 Der Nenner von f (x) =
−x + 2 x2 + 2x + 1
besitzt die doppelte Nullstelle −1, denn es ist x2 + 2x + 1 = (x + 1)2 . Nach b) gibt es dann eine Darstellung x2
A1 A2 −x + 2 = + + 2x + 1 x + 1 (x + 1)2
mit noch zu bestimmenden Konstanten A1 und A2 . Zur Bestimmung von A1 und A2 bringt man die rechte Seite wieder auf einen Bruchstrich: x2
A1 A2 A1 (x + 1) + A2 −x + 2 = + = 2 + 2x + 1 x + 1 (x + 1) (x + 1)2 A1 x + A1 + A2 = . (x + 1)2
Zur Bestimmung der Konstanten kann man die in Beispiel 1.1.46.1 erw¨ahnten Verfahren auch mischen: • Koeffizientenvergleich der Z¨ahler bei x“ bringt −1 = A1 . ” • Einsetzen von x = −1 in die Z¨ahler bringt −(−1) + 2 = A2 , also A2 = 3. Damit ist −1 3 −x + 2 = + . x2 + 2x + 1 x + 1 (x + 1)2 Beispiel 1.1.46.3 Der Nenner von f (x) =
x2 + 3x + 5 . x3 − x2 + 2x − 2
22
1 Funktionen besitzt die faktorisierte Darstellung x3 − x2 + 2x − 2 = (x − 1)(x2 + 2) (s. Beispiel 1.1.37.1, 2.). Die Ansatz-Funktion zur Partialbruchzerlegung ist also nach a) und c)
x3
A Bx + C x2 + 3x + 5 = + 2 . 2 − x + 2x − 2 x−1 x +2
Die Berechnung von A, B und C ist hier schon recht m¨ uhsam. Man kann wieder den rechten Ausdruck auf einen Bruchstrich bringen und dann in einer Mischung von Koeffizientenvergleich und Einsetzen geschickter xWerte Gleichungen f¨ ur A, B und C aufstellen. Nach einiger Rechnung erh¨alt man A = 3, B = −2 und C = 1, also f (x) =
−2x + 1 3 + 2 . x−1 x +2
Bemerkungen 1.1.47 (Polstellen und Funktionsverlauf) 125
1. Bei einer Nullstelle x0 des Nenners, die nicht Nullstelle des Z¨ ahlers ist, beahert sich in der N¨ ahe sitzt die Funktion eine Polstelle 1 . Der Funktionswert n¨ dieser Stelle dem Wert +∞ oder −∞. Entsprechend der Vielfachheit der Nullstelle des Nenners spricht man auch von der Vielfachheit der Polstelle. 1
126
¨ Ahnlich wie bei den Polynomen (s. Bemerkung 1.1.42) gilt bei einer n-fachen Polstelle x0 einer Funktion: • Ist n gerade, so findet an der Polstelle kein Vorzeichenwechsel statt. • Ist n ungerade, so gibt es bei x0 einen Vorzeichenwechsel. Beispiele 1.1.47.1 Abb. 1.20 zeigt Funktionsskizzen zu 1 1. f1 (x) = x−1 mit einfacher Polstelle bei 1 (Abb. 1.20 links), 1 2. f2 (x) = (x − 1)2
mit doppelter Polstelle bei 1 (Abb. 1.20 Mitte), 3 3. f3 (x) = − x+2 mit einfacher Polstelle bei −2 und negativem Vorfaktor (Abb. 1.20 rechts).
1
Ist x0 Nullstelle von Z¨ ahler und Nenner mit gr¨ oßerer Vielfachheit im Nenner als im Z¨ ahler, so gilt entsprechendes. Die Vielfachheit der Polstelle ist dann gleich der Differenz der Nullstellen-Vielfachheit von Nenner und Z¨ ahler.
1.1 Elementare Funktionen
f1 (x)
23
f2 (x)
f3 (x) x
1
x
1
x
−2
Abb. 1.20 Funktionen mit einfacher und doppelter Polstelle.
2. Die Partialbruchzerlegung erm¨oglicht damit oft schon eine grobe Skizze des Funktionsverlaufs. Beispiel 1.1.47.2 Bei der Funktion f (x) =
x+5 1 2 = − + x2 − 2x − 3 x+1 x−3
(s. Beispiel 1.1.46.1) betrachtet man die beiden Partialfunktionen f1 (x) = −
1 x+1
und
f2 (x) =
2 . x−3
Diese haben einfache Polstellen bei −1 bzw. 3, also dort jeweils einen Vorzeichenwechsel. Werte knapp u ¨ber −1 liefern bei f1 große negative Funktionswerte, Werte knapp u ¨ber 3 liefern bei f2 stark positive Funktionswerte. Damit kann man den Verlauf der beiden Partialfunktionen skizzieren: In Abb. 1.21 ist der Funktionsgraf zu f1 gepunktet und der zu f2 gestrichelt dargestellt. Das Verhalten der Funktion f entspricht in der N¨ ahe der Polstellen der Partialfunktionen dem entsprechenden Verlauf, also in der N¨ ahe von −1 dem von f1 und in der N¨ahe von 3 dem von f2 . Damit kann man dann den gesamten Funktionsgrafen zu f skizzieren. y
f (x)
-1
3
x f2 (x)
f1 (x)
Abb. 1.21 Funktionsgrafen zu f und den Partialfunktionen f1 und f2 .
24
1 Funktionen
1.1.5 Trigonometrische Funktionen Bemerkung 1.1.48 (trigonometrische Funktionen im Dreieck) Die trigonometrischen Funktionen (Winkelfunktionen) beschreiben Seitenverh¨altnisse in einem rechtwinkligen Dreieck in Abh¨angigkeit eines Winkels α des Dreiecks. Dabei heißt die Seite gegen¨ uber dem Winkel Gegenkathete, die am Winkel liegende Seite Ankathete. Die Seite gegen¨ uber dem rechten Winkel heißt Hypotenuse, s. Abb. 1.22.
Hy
se nu e t po
α
Gegenkathete
127
Ankathete Abb. 1.22 Seitenbezeichnungen im rechtwinkligen Dreieck.
Definition 1.1.49 (trigonometrische Funktionen im Dreieck) Bei einem rechtwinkligen Dreieck mit einem Winkel α ist sin α =
Gegenkathete Hypotenuse
(Sinus),
cos α =
Ankathete Hypotenuse
(Cosinus),
tan α =
sin α Gegenkathete = Ankathete cos α
(Tangens),
cot α =
1 cos α Ankathete = = Gegenkathete tan α sin α
(Cotangens).
Beispiele 1.1.50 1. Ein gleichschenkliges rechtwinkliges Dreieck besitzt 45◦ -Winkel.
√
Besitzen die Katheten die L¨ange 1, so hat die Hypotenuse nach √ dem Satz des Pythagoras die L¨ange 2, s. Abb. 1.23. Also ist 1 sin 45◦ = √ , 2 1 cos 45◦ = √ , 2 1 ◦ tan 45 = = 1 1
2
1
45◦ 1 Abb. 1.23 Rechtwinkliges gleichschenkliges Dreieck.
und
cot 45◦ =
1 = 1. 1
1.1 Elementare Funktionen
25
2. Bei einem gleichseitigen Dreieck betragen die Innenwinkel 60◦ .
c
Halbiert man ein solches Dreieck wie in Abb. 1.24, so erh¨alt man ein rechtwinkliges Dreieck, an dem man sieht: sin 30◦ ◦
cos 60
60◦
c 2
30◦ c 2
c 2
1 = , = c 2
Abb. 1.24 Halbiertes gleichseitiges Dreieck.
c 2
1 = . = c 2
Bemerkungen 1.1.51 (Winkel im Bogenmaß) 1
1. Neben der Angabe von Winkeln in Grad ist insbesondere im Zusammenhang mit trigonometrischen Funktionen das Bogenmaß (Radiant) u ¨blich. Dies entspricht der L¨ange des Kreisbogens im Einheitskreis (einem Kreis mit Radius 1) bei entsprechendem Winkel, s. Abb. 1.25. Ein Winkel von 360◦ entspricht damit dem Bogenmaß 2π, also ein Winkel von 2π π = 180 . 1◦ dem Bogenmaß 360
x α 1
Abb. 1.25 Winkel im Bogenmaß.
Allgemein entspricht dem Winkel α in Grad der Wert x = genmaß. 2. Wichtige Werte sind: ◦
30
entspr.
45◦ entspr. ◦
60
entspr.
90◦ entspr. 180◦ entspr. 360◦ entspr.
π · 30◦ 180◦ π · 45◦ 180◦ π · 60◦ 180◦ π · 90◦ 180◦ π · 180◦ 180◦ π · 360◦ 180◦
π 180
π 2
= = = =
π , 6 π , 4 π , 3 π , 2
π
· α im Bo-
π 3 π 4
π 6
0 2π
= π, = 2π.
Abb. 1.26 Wichtige Winkelwerte im Bogenmaß.
¨ 3. Ublicherweise wird ein Winkel x gegen den Uhrzeigersinn gedreht (mathematisch positiv). Dreht man im Uhrzeigersinn (mathematisch negativ), so kann man dies durch einen entsprechend negativen Winkel ausdr¨ ucken. Im Folgenden wird fast ausschließlich das Bogenmaß verwendet.
128
26
1 Funktionen
Bemerkung 1.1.52 (trigonometrische Funktionen im Allgemeinen) 129
130
Die Sinus- und Cosinus-Funktionen stellen entspr. Abb. 1.27 Gr¨oßen im Einheitskreis dar. Ein Punkt P auf dem Einheitskreis im Winkel x zur horizontalen Achse hat die Koordinaten
1
cos x
sin x sin x x cos x 1
P = (cos x, sin x). sin x Damit, und mit tan x = cos x und cot x = cos x kann man die Definition der trigonosin x metrischen Funktionen auf beliebige Argumente x erweitern.
Abb. 1.27 Winkelfunktionen im Einheitskreis.
Definition 1.1.53 (trigonometrische Funktionen) Die entsprechend Bemerkung 1.1.52 definierten Funktionen sin x, cos x, tan x und cot x heißen Winkelfunktionen oder trigonometrische Funktionen. y
131
−π
−π
π
π 2
3 π 2
π
3π
4π
x
2π
3π
4π
x
y
tan x π 2
2π
cos x
1
−1
y
π
π 2
−1 y
132
sin x
1
x
cot x 3 π 2
π 2
2π
133
Abb. 1.28 Grafen der Winkelfunktion.
π
2π
x
1.1 Elementare Funktionen
27
Bemerkungen 1.1.54 zu den trigonometrischen Funktionen 1. Die Funktionen sin x und cos x sind 2π-periodisch, tan x und cot x πperiodisch. 2. Wichtige Winkel und Werte: x=α
∧
0
sin x
0
cos x
1
Statt
√1 2
π 6
= 30◦ ∧
π 4
= 45◦
1 2 √ 3 2
∧
π 3
∧
π 2
√
√1 2 √1 2
schreibt man oft auch
= 60◦
= 90◦ π = 180◦ ∧
∧
3 2π
= 270◦ ∧
3 2
1
0
−1
1 2
0
−1
0
1 2.
y
Die wichtigen Winkel und Werte zwischen 0 und π2 sind in Abb. 1.29 verdeutlicht. 3. Die Funktion sin x beseitzt als Nullstellen genau alle Vielfachen von π, also x = kπ mit k ∈ Z. Dies sind Polstellen von cot x.
Die Nullstellen der Funktion cos x und damit die Polstellen von tan x sind genau die Werte x = kπ + π2 mit k ∈ Z.
√
3 2 1 √ 2
1
cos x
sin x
1 2
x π 6
π 4
π 3
π 2
Abb. 1.29 Wichtige Werte.
H¨aufig treten Quadrate von Winkelfunktionen auf. Statt (sin x)2 schreibt man dabei auch sin2 x, entsprechend cos2 x.
Satz 1.1.55 (Eigenschaften der trigonometrischen Funktionen) 1. Es gelten die Symmetrien sin(−x) = − sin(x)
und
cos(−x) = cos(x).
134
2. Es gilt sin2 x + cos2 x = 1.
(trigonometrischer Pythagoras) 135
3. Es gelten die Additionstheoreme sin(x + y) = sin x · cos y + cos x · sin y, cos(x + y) = cos x · cos y − sin x · sin y, insbesondere: sin(2x) = 2 sin x cos x, cos(2x) = cos2 x − sin2 x = 2 cos2 x − 1.
136
28
1 Funktionen
Bemerkungen 1.1.56 zu Satz 1.1.55
137
138
1. Die Symmetrien der Sinus- und CosinusFunktion kann man gut an Hand der Definition am Einheitskreis sehen, s. Abb. 1.30:
1 sin x
sin x x −x
Der Winkel −x ist gegen¨ uber dem Winkel x an der horizontalen Achse gespiegelt: Positive Winkel werden gegen den Uhrzeigersinn gedreht, negative im Uhrzeigersinn. Durch die Spiegelung spiegeln sich auch die Sinus-Werte, w¨ahrend die CosinusWerte unver¨andert bleiben. 2. Den trigonometrischen Pythagoras“ ” 2
cos x
1 sin(−x)
sin(−x) cos(−x)
Abb. 1.30 Symmetrien der Winkelfunktionen.
1
2
sin x + cos x = 1 sin x
erh¨alt man, indem man den gew¨ohnlichen Satz des Pythagoras auf das den Sinus und Cosinus definierende rechtwinklige Dreieck anwendet, s. Abbildung 1.31.
sin x x cos x
1
Abb. 1.31 Satz des Pythagoras.
3. Unter Ausnutzung der Symmetrien und der Additionstheoreme erh¨ alt man: sin(x − y) = sin(x + (−y)) = sin x · cos(−y) + cos x · sin(−y) = sin x · cos y + cos x · (− sin y) = sin x · cos y − cos x · sin y und cos(x − y) = cos(x + (−y)) = cos x · cos(−y) − sin x · sin(−y) = cos x · cos y − sin x · (− sin y) = cos x · cos y + sin x · sin y.
1.1.6 Potenzregeln und Exponentialfunktionen Bemerkung 1.1.57 (Definition von Exponentialausdr¨ucken) F¨ ur n ∈ N und beliebiges a ist an = a . . · a . · . n−mal
1.1 Elementare Funktionen
29
ur a > 0 und Allgemein kann man ax f¨ √ beliebige x ∈ R definieren, z.B. als Umkehrung zur Quadrat-Funktion a = a0.5 . √ Allerdings macht beispielsweise (−1)0.5 = −1 in den reellen Zahlen keinen Sinn; f¨ ur a < 0 und x ∈ / Z ist ax nicht definiert. F¨ ur a ≥ 0 ist a0 = 1; insbesondere definiert man auch 00 = 1.
139
Satz 1.1.58 (Potenzregeln) Es gilt1 x
x
1.a)
a ·b
2.a)
ax · ay = ax+y ,
3.
x
= (a · b) ,
(ax )y = axy ,
1.b) 2.b) 4.
a x ax = , x b b ax = ax−y , ay
x 1 1 −x . a = x = a a
1
Beispiele 1.1.59 1.a) 23 · 53 = 2 · 2 · 2 · 5 · 5 · 5 = 2 · 5 · 2 · 5 · 2 · 5 = (2 · 5)3 .
3 2 2 2 2 2·2·2 23 = · · = . 1.b) 3 = 5 5·5·5 5 5 5 5 2.a) 42 · 43 = 4 · 4 · 4 · 4 · 4 = 42+3 = 45 . 2.b) 3. 4.
45 4 · 4 · 4 · 4 · 4 = 45−3 = 42 . = 43 4 · 4 · 4
(43 )2 = 43 · 43 = 4 · 4 · 4 · 4 · 4 · 4 = 43·2 .
2 1 1 −2 . = 2 = 3 3 3
Bemerkungen 1.1.60 (Zusammenspiel der Potenzregeln) 1. Die Formeln aus Satz 1.1.58 sind in sich stimmig“; beispielsweise erh¨ alt ” man die zweite Gleichung von 4. durch 1.b):
x 1x 1.b) 1 1 = x = , ax a a oder 2.b) aus 4. und 2.a): 1 4. ax 2.a) = ax · y = ax · a−y = ax−y . ay a 1
falls die Ausdr¨ ucke definiert sind, vgl. Bemerkung 1.1.57
140
30
1 Funktionen
2. Man kann Potenzen manchmal auf verschiedene Weisen umrechnen. Beispiel 1.1.60.1 1 4. a) 3−2 · 32 = 2 · 32 = 1, 3 2
2
1 1 1.a) 4. ·3 b) 3−2 · 32 = · 32 = = 12 = 1, 3 3 2.a)
c) 3−2 · 32 = 3−2+2 = 30 = 1. c c 3. Achtung: Im Allgemeinen ist ab = a(b ) .
Beispiel 1.1.60.2 3 3 Es ist 42 = 42·3 = 46 , aber 4(2 ) = 48 = 46 .
c
c
Ohne Klammerung ist der rechte Ausdruck gemeint: ab = a(b ) , denn den linken Ausdruck kann man immer einfacher schreiben als ab·c .
Definition 1.1.61 (Exponentialfunktion) Zu einer festen Zahl a ∈ R>0 heißt die Funktion f : R → R, f (x) = ax Exponentialfunktion.
141
Die Zahl a heißt Basis, x heißt Exponent. Besonders ausgezeichnet ist die e-Funktion exp(x) = ex mit der Eulerschen Zahl1 e ≈ 2.718282. 1
Beispiel 1.1.62 Die Funktionen f (x) = 2x und g(x) = funktionen.
1 x 2
=
1 2x
= 2−x sind Exponential-
Bemerkungen 1.1.63 (Verlauf der Exponentialfunktionen) 1. Abb. 1.32 zeigt typische Funktionsverl¨aufe von Exponentialfunktionen: ax
1
ax
a>1
a 1 w¨achst ax f¨ Ausdruck sehr schnell der Null. 1
zur genauen Definition s. Bemerkung 3.1.23, 1., oder Bemerkung 3.3.5, 1.
1.1 Elementare Funktionen
31
Definition 1.1.64 (hyperbolische Funktionen) Die hyperbolischen Funktionen sind definiert durch 1 x ( e − e−x ) 2 1 cosh x := ( ex + e−x ) 2 sinh x :=
(sinus hyperbolicus), (cosinus hyperbolicus). cosh x
sinh x 1 2
ex
142
1 1
x - 21 e−x
1 2
ex
1 2
1 1
e−x
x
Abb. 1.33 Funktionsgrafen zu den hyperbolischen Funktionen.
Bemerkungen 1.1.65 zu den hyperbolischen Funktionen 1. Die Funktion cosh x heißt auch Kettenlinien-Funktion. Sie beschreibt die Form frei aufgeh¨angter Ketten, Kabel oder Seile, s. Abb. 1.33, rechts. 2. W¨ahrend bei den trigonometrischen Funktionen die Punktemenge {(cos x, sin x)|x ∈ R} einen Kreis bildet, beschreibt {(cosh x, sinh x)|x ∈ R} eine Hyperbel, s. Abb. 1.34. Daher r¨ uhrt der Name hyperbolische Funktionen“. ”
(cosh x, sinh x) 1 1
Abb. 1.34 Hyperbel.
3. Wie bei den Winkelfunktionen schreibt man auch hier (sinh x)2 = sinh2 x und (cosh x)2 = cosh2 x.
Satz 1.1.66 Es gilt cosh2 x − sinh2 x = 1.
Bemerkung 1.1.67 F¨ ur die hyperbolischen Funktionen gelten noch weitere Additionstheoreme a¨hnlich wie bei den Winkelfunktionen (s. Satz 1.1.55).
32
1 Funktionen
1.1.7 Betrags-Funktion H¨aufig interessiert nur der Absolutwert, nicht das Vorzeichen einer Zahl:
Definition 1.1.68 (Betrags-Funktion) 143
|x|
Die Funktion f : R → R, x → |x| mit x, falls x ≥ 0, |x| = −x, falls x < 0,
1 1
x
Abb. 1.35 Die Betragsfunktion.
heißt Betrags-Funktion.
Beispiel 1.1.69 Es ist |3| = 3 und | − 3| = −(−3) = 3.
Bemerkung 1.1.70 (Betrag als Abstand) H¨aufig treten Ausdr¨ ucke wie |x − x0 | < a auf. Dies bedeutet, dass der Abstand von x zu x0 (nach rechts oder links) kleiner als a sein muss. Beispiel 1.1.70.1
0
Durch |x − 2| < 1 werden die Werte x charakterisiert, die zu 2 einen Abstand kleiner als 1 haben, also das Intervall ]1, 3[, s. Abb. 1.36.
Abb. 1.36 Die Menge der x mit |x − 2| < 1.
Satz 1.1.71 (Eigenschaften des Betrags) F¨ ur x, y ∈ R gilt 1.
|x · y| = |x| · |y|,
2.
|x + y| ≤ |x| + |y|
2
(Dreiecksungleichung).
Beispiel 1.1.72 F¨ ur x = 1 und y = −4 ergibt sich 3 = | − 3| = |1 + (−4)| ≤ |1| + | − 4| = 5.
1.2 Einige Eigenschaften von Funktionen
33
1.2 Einige Eigenschaften von Funktionen 1.2.1 Symmetrie
Definition 1.2.1 (gerade und ungerade) Eine Funktion f mit symmetrischer Definitionsmenge D heißt gerade ungerade
:⇔
f¨ ur alle x ∈ D gilt
144
f (−x) = f (x) . f (−x) = −f (x)
Bemerkung 1.2.2 (achsen-/punktsymmetrisch und (un-)gerade) Abb. 1.37 zeigt typische Funktionsgrafen bei (un-)geraden Funktionen: Bei einer geraden Funktion ist er achsensymmetrisch zur y-Achse. Bei einer ungerade Funktion ist er punktsymmetrisch zum Ursprung. f (−x)
= f (x)
ungerade
gerade
f (x) −x x f (−x)
x
−x
Abb. 1.37 Eine gerade und eine ungerade Funktion.
Beispiele 1.2.3 Gerade Funktionen (s. Abb. 1.38) sind 145
1. f (x) = x2 , denn f (−x) = (−x)2 = x2 = f (x), 2. f (x) = cos x, denn cos(−x) = cos(x), s. Satz 1.1.55, 1., 3. f (x) = cosh x, denn 1 −x 1 1 ( e + e−(−x) ) = ( e−x + ex ) = ( ex + e−x ) 2 2 2 = cosh(x),
cosh(−x) =
4. Polynome mit nur geraden x-Potenzen, z.B. f (x) = x6 − 4x4 + 3x2 + 1. x2
cos x
f (x)
cosh x
x x
x x
Abb. 1.38 Beispiele gerader Funktionen.
34
1 Funktionen Ungerade Funktionen (s. Abb. 1.39) sind 1. f (x) = x3 , denn f (−x) = (−x)3 = −x3 = −f (x),
2. f (x) = sin x, denn sin(−x) = − sin(x), s. Satz 1.1.55, 1., 3. f (x) = sinh x, denn
1 1 1 −x ( e − e−(−x) ) = ( e−x − ex ) = − ( ex − e−x ) 2 2 2 = − sinh(x),
sinh(−x) =
4. Polynome mit nur ungeraden x-Potenzen, z.B. f (x) = x5 − 4x3 + 2x. x3
sin x
f (x)
sinh x x
x
x
x
Abb. 1.39 Beispiele ungerader Funktionen.
1.2.2 Monotonie
Definition 1.2.4 (Monotonie) 146
Sei D ⊆ R. Eine Funktion f : D → R heißt monoton fallend, monoton wachsend, streng monoton fallend, streng monoton wachsend,
:⇔
f¨ ur alle x1 , x2 ∈ D mit x1 < x2 gilt
f (x1 ) ≥ f (x2 ) f (x1 ) ≤ f (x2 ) f (x1 ) > f (x2 ) f (x1 ) < f (x2 )
.
Bemerkung 1.2.5 zur (strengen) Monotonie Bei monotonen Funktionen sind konstante Bereich erlaubt, bei streng monotonen Funktionen nicht. f (x)
f (x) f (x1 )
f (x1 ) = f (x2 )
f (x2 ) x1 x2
x
x1
x2
x
Abb. 1.40 Monoton wachsende (links) und streng monoton fallende (rechts) Funktion.
1.2 Einige Eigenschaften von Funktionen
35
Beispiele 1.2.6 1. Die Funktion f (x) = x3 ist streng monoton wachsend auf R, s. Abb. 1.41 links. 2. Die Funktion f (x) = x2 ist streng monoton fallend auf R≤0 und streng monoton wachsend auf R≥0 , s. Abb. 1.41 rechts.
x2
x3 x
x Abb. 1.41 x3 - und x2 -Funktion.
1.2.3 Umkehrbarkeit
Definition 1.2.7 (injektiv, surjektiv und bijektiv) Sei f : M → N eine Funktion.
147
f¨ ur alle x1 , x2 ∈ M mit x1 = x2 gilt f (x1 ) = f (x2 ). zu jedem y ∈ N gibt es f heißt surjektiv :⇔ ein x ∈ M mit f (x) = y. f heißt bijektiv :⇔ f ist sowohl injektiv als auch surjektiv. f heißt injektiv
:⇔
Bemerkung 1.2.8 (anschauliche Beschreibung der Begriffe) Stellt man sich die Funktion f bildlich durch Pfeile zwischen den x ∈ M und den f (x) ∈ N vor, so gilt • f ist injektiv ⇔ an jedem y ∈ N kommt h¨ ochstens ein Pfeil an,
• f ist surjektiv ⇔ an jedem y ∈ N kommt mindestens ein Pfeil an, • f ist bijektiv ⇔ an jedem y ∈ N kommt genau ein Pfeil an. a
b
2
1 5
d c M
3
4
N f Abb. 1.42 Eine weder injektive noch surjektive Funktion.
Beispiel 1.2.8.1 Die in Abb. 1.42 dargestellte Funktion f : M → N ist
• nicht injektiv, denn bei 3 ∈ N kommen zwei Pfeile an: F¨ ur c, d ∈ M ist c = d, aber f (c) = f (d),
• nicht surjektiv, denn bei 4 ∈ N kommt kein Pfeil an: Es gibt kein x ∈ M mit f (x) = 4.
36
1 Funktionen
Definition 1.2.9 (Umkehrfunktion) 148
Ist die Funktion f : M → N bijektiv, so heißt sie auch umkehrbar.
Dann heißt die Funktion f −1 : N → M , die jedem y ∈ N das (eindeutige) x ∈ M mit f (x) = y zuordnet, Umkehrfunktion zu f .
Bemerkungen 1.2.10 zur Umkehrfunktion 1. Die Bezeichnung f −1 ist nur ein Symbol; damit ist nicht
1 f
gemeint!
2. Ist f : M → N injektiv, aber nicht surjektiv, so kann man den Zielbereich auf den Bildbereich f (M ) einschr¨anken und erh¨ alt eine bijektive, also umkehrbare Funktion, s. Abb 1.43. Oft wird die entsprechende Umkehrfunktion auch mit f −1 bezeichnet. a
2
b
1 5
d c
4
3
M
N
f
f (M ) a
2
b
1 5
d c M
4
3
N
f −1
Abb. 1.43 Eine injektive Funktion f und deren Umkehrfunktion f −1 : f (M ) → M .
3. Ist die Funktion f nicht injektiv, so gibt es verschiedene x Werte mit gleichem Funktionswert, s. Abb. 1.44.
f (x)
Die Funktion f ist dann nicht umkehrbar.
x x1
x2
Abb. 1.44 Nicht-umkehrbare Funktion.
4. Bei einer umkehrbaren Funktion f ordnet die Umkehrfunktion f −1 den Funktionswerten y = f (x) ihr Urbild x zu, also f −1 (y) = x. Grafisch kann man dies durch Umkehrung der Zuordnungsrichtung darstellen, s. Abb. 1.45 die beiden Bilder links. Geht man vom u ¨blichen Bild einer Funktion f : R → R aus, bei der die unabh¨angige Variable x nach rechts und die Funktionswerte y = f (x) nach oben gezeichnet werden, so ist dann die Achse der unabh¨ angigen Variablen
1.2 Einige Eigenschaften von Funktionen
37
y nach oben gerichtet. Die u angigen Va¨bliche Darstellung mit der unabh¨ riablen nach rechts gezeichnet erh¨alt man durch Spiegelung des Grafen an der Winkelhalbierenden, s. Abb. 1.45 rechts. y
f (x)
f −1 (x)
f f −1
x1 x2
f −1 (y)
x
x
Abb. 1.45 Umkehrbare Funktion f mit Umkehrfunktion f −1 durch Pfeilumkehr und u ¨ bliche Darstellung von f −1 durch Spiegelung an der Winkelhalbierenden.
5. Rechnerisch erh¨alt man die Umkehrfunktion zur Funktion f durch Aufl¨ osen ¨ der Gleichung y = f (x) nach x. Ublicherweise tauscht man anschließend die Variablenbezeichnungen x und y. 149
Beispiel 1.2.10.1 Gesucht ist die Umkehrfunktion zu f (x) = 2x + 1.
⇒ ⇒
y = f (x) = 2x + 1 y − 1 = 2x 1 1 x = y− . 2 2
f (x) f −1 (x) 1 1
x
Abb. 1.46 Funktion und Umkehrfunktion.
Die Umkehrfunktion (mit dem Variablennamen x statt y) ist also 1 1 x− . 2 2 Abb. 1.46 zeigt, dass die Grafen zu f und f −1 an der Winkelhalbierenden gespiegelt sind. f −1 (x) =
Satz 1.2.11 Streng monotone Funktionen sind umkehrbar.
38
1 Funktionen
1.3 Umkehrfunktionen 1.3.1 Wurzelfunktionen Die Funktionen f (x) = xn sind f¨ ur x ≥ 0 streng monoton wachsend und damit umkehrbar.
Definition 1.3.1 (Wurzelfunktion) 150
y
x4
x2 √ 2
Die Umkehrfunktion zur Potenz-Funktion f : R≥0 → R≥0 , x → xa , √ wird mit a x bezeichnet (Wurzelfunktion).
x
√ 4
1
1
x
x
Abb. 1.47 Wurzelfunktionen.
Beispiele 1.3.2 √ 3
8 = 2, da 23 = 8 gilt. √ 2. Will man den Wert von a = 4 20, also der L¨ osung von a4 = 20, absch¨ atzen, 4 4 so erh¨alt man wegen 2 = 16 und 3 = 81, dass a knapp u ¨ber 2 liegt. 1. Es ist
Tats¨achlich ist a ≈ 2.11.
Bemerkungen 1.3.3 zur Wurzelfunktion √ √ 1. Statt 2 x schreibt man meist x und nennt diese Wurzel auch Quadratwurzel. √ 1 2. Statt n x schreibt man auch x n . Damit gelten auch die Potenzregeln (Satz 1.1.58). Beispiel 1.3.3.1 Als Umkehrfunktion zu xn ist
√ n
xn = x. Mit den Potenzregeln ist
√ 1 1 n xn = xn n = xn· n = x1 = x.
√ 3. F¨ ur negative x ist x nicht definiert, und durch Quadrieren und Wurzelziehen erh¨alt man nicht x zur¨ uck: √ (−1)2 = 1 = 1 = −1. √ ur alle x ∈ R. Es gilt x2 = |x| f¨
1.3 Umkehrfunktionen
39
√ 4. Bei ungeradem n ∈ N ist n x ausnahmsweise auch f¨ ur x < 0 definiert, da die Funktion f : R → R, x → x
f (x)
x3 √ 3
1
x
n
1
dann auf ganz R streng monoton wachsend und damit umkehrbar ist, s. Abb. 1.48. Beispiel 1.3.3.2 √ Es gilt 3 −8 = −2, da (−2)3 = −8 ist.
x
√ Abb. 1.48 3 x als Umkehrfunktion zu x3 .
5. Beim Aufl¨osen von Wurzel-Gleichungen k¨ onnen sich durch das Quadrieren falsche L¨osungen einschleichen. Beispiel 1.3.3.3 Die Gleichung √ 2x + 3 = x wird durch Quadrieren zu 2x + 3 = x2
⇔
x2 − 2x − 3 = 0
mit der L¨osung x = −1 oder x = 3.
Allerdings erf¨ ullt nur x = 3 die urspr¨ ungliche Gleichung.
6. Mit Hilfe der Wurzelfunktion kann man einen Halbkreis als Funktion darstellen: Bei einem Radius R gilt nach dem Satz des Pythagoras (s. Abb. 1.49) x2 + f (x)2 = R2 .
R f (x) R x Abb. 1.49 Halbkreis als Funktion.
Der obere Halbkreis mit positiven Funktionswerten f (x) wird also dargestellt durch R 2 − x2 . f (x) = √ Speziell stellt f (x) = 1 − x2 einen Halbkreis mit Radius 1 dar.
40
1 Funktionen
1.3.2 Arcus-Funktionen Auf R sind die Winkelfunktionen nicht umkehrbar. Man kann sie aber auf bestimmte Intervalle einschr¨anken, auf denen sie umkehrbar sind. Ist allgemein M1 ⊆ M und f : M → N eine Funktion, so schreibt man f M1 f¨ ur die auf M1 eingeschr¨ankte Funktion: f : M1 → N . M1
Definition 1.3.4 (Arcus-Funktionen)
151
Die Umkehrfunktionen der Winkelfunktionen heißen Arcus-Funktionen: −1 (Arcussinus), : [−1, 1] → [− π2 , π2 ] arcsin := sin[− π , π ] 2 2 −1 : [−1, 1] → [0, π] (Arcuscosinus), arccos := cos[0,π] −1 : R → ] − π2 , π2 [ (Arcustangens), arctan := tan]− π , π [ 2 2 −1 : R → ]0, π[ (Arcuscotangens). arccot := cot]0,π[ arcsin
π 2
π
1
arccos
sin
π 2
1 − π2 −1
π 2
1
x π
−1
−1
− π2
1
π 2
cos
x
cot
tan π π 2
arccot arctan π 2
− π2
π 2
x
x π 2
π
− π2
Abb. 1.50 Funktionsgrafen der Arcus-Funktionen (durchgezogen) und der urspr¨ unglichen Funktionen (gepunktet bzw. in dem Intervall, das zur Umkehrung dient, gestrichelt).
1.3 Umkehrfunktionen
41
Bemerkung 1.3.5 Sucht man zu gegebenem Wert y ∈ [−1, 1] L¨ osungen x zu y = sin x, so liefert der Arcus-sinus nur eine L¨osung x0 = arcsin y. Weitere L¨osungen erh¨alt man durch Symmetriebetrachtung, wie Abb. 1.51 verdeutlicht: x1 = π − x 0 , y
x2 = 2π + x0 ,
....
1 x0 −1
π 2
x1 π
2π x2
x3
Abb. 1.51 Verschiedene Stellen mit gleichem Sinus-Wert.
1.3.3 Logarithmus Die Exponentialfunktionen
y ax
f :R→R
>0
x
, f (x) = a ,
zu einer Basis a ∈ R>0 , a = 1 sind streng monoton, also umkehrbar, s. Abb. 1.52. Die Zahl x, f¨ ur die
1
loga x 1
x
ax = c gilt, heißt Logarithmus zur Basis a von c: x = loga c.
Abb. 1.52 Logarithmus als Umkehrfunktion der Exponentialfunktion.
Definition 1.3.6 (Logarithmus) Die Umkehrfunktion zu f : R → R>0 , f (x) = ax , (a ∈ R>0 , a = 1), wird mit loga x bezeichnet. ( Logarithmus zur Basis a von x“). ”
Beispiele 1.3.7 1. Es ist log2 8 = 3, da 23 = 8. osung von 3b = 5, absch¨ atzen, 2. Will man den Wert von b = log3 5, also der L¨ so erh¨alt man wegen 31 = 3 und 32 = 9, dass b ∈]1, 2[ ist. Tats¨achlich ist b ≈ 1.465.
152
42
1 Funktionen
3. Der Wert b = log3 (0.1) ist die L¨osung zu 3b = 0.1. Wegen 3−2 =
1 32
=
1 9
≈ 0.11 ist b ≈ −2.
Tats¨achlich ist b ≈ −2.096.
4. Der Ausdruck log3 (−2) ist nicht definiert, da es kein b mit 3b = (−2) gibt. Auch log3 0 ist nicht definiert, da es kein b mit 3b = 0 gibt.
Bemerkungen 1.3.8 zu den Logarithmus-Funktionen 1. Der Ausdruck loga x ist nur f¨ ur x > 0 definiert. 2. F¨ ur jedes a ist a0 = 1, also loga 1 = 0. achst sehr langsam. 3. Die Logarithmus-Funktion loga x zu a > 1 w¨ 4. Spezielle Basen sind ausgezeichnet: ln x := log e x ld x := lb x := log2 x
(Logarithmus naturalis), (Logarithmus dualis/bin¨ arer Logarithmus),
lg x := log10 x. Der Logarithmus ohne Angabe der Basis bezieht sich je nach Zusammenhang auf den nat¨ urlichen Logarithmus (also log x = ln x, z.B. oft in Programmiersprachen) oder auf den Zehner-Logarithmus (also log x = lg x, z.B. oft bei Taschenrechnern). 1
Satz 1.3.9 (Logarithmen-Regeln) Es gelten die folgenden Logarithmenregeln1 :
153
1.
loga (ax ) = x
2.
loga (x · y) = loga x + loga y,
x loga = loga x − loga y, y
3. 4. 5.
und
aloga x = x,
loga (xy ) = y · loga x,
logb x = logb a · loga x
bzw.
loga x =
Beispiel 1.3.10 Nach 2. ist ln 4 + ln 2 = ln(4 · 2) = ln 8.
1
falls die entsprechenden Ausdr¨ ucke definiert sind
logb x . logb a
1.3 Umkehrfunktionen
43
Bemerkungen 1.3.11 zu den Logarithmen-Regeln 1. Die Regel 1. besagt, dass der Logarithmus die Umkehrfunktion zur Exponentialfunktion ist. Die weiteren Regeln kann man sich aus den Potenzregeln (s. Satz 1.1.58) herleiten, z.B. folgendermaßen f¨ ur die zweite Regel: Setzt man s = loga x und t = loga y, so gilt as = x und at = y. Der Wert u = loga (x · y) ist der Wert, so dass au = x · y gilt. Mit der Potenzregel 1.1.58, 2.a) folgt au = x · y = as · at = as+t . Also ist u = s + t. 2. Die Regel 5. besagt, dass die Logarithmus-Funktionen zu verschiedenen Basen einfach nur Vielfache voneinander sind: logb x = c · loga x
mit c = logb a
bx In der Form loga x = log logb a kann man die Regel nutzen, um mit dem Taschenrechner Logarithmen zu Basen a zu berechnen, die nicht direkt als Funktion vorhanden sind.
Beispiel 1.3.11.1 Den Wert von log3 5 kann man beispielsweise mit der ln-Funktion oder durch den 10er-Logarithmus berechnen als log3 5 =
log10 5 ln 5 = . ln 3 log10 3
3. Man kann die Formeln untereinander umrechnen, z.B. erh¨ alt man 3. durch
1 x loga = loga x · y y 1 2. = loga x + loga y −1 = loga x + loga y 4.
= loga x + (−1) · loga y = loga x − loga y
oder 5. durch 4. 1. logb x = logb aloga x = loga x · logb a.
4. F¨ ur loga (x + y) oder loga (x − y) gibt es keine Formeln.
44
1 Funktionen
Bemerkung 1.3.12 (logarithmische Skalierung) 154
Bei der grafischen Darstellung von Zusammenh¨ angen, die sich u ¨ber mehrere Gr¨oßenordnungen erstrecken, nutzt man h¨ aufig logarithmische Skalen: Statt des Funktionswerts f (x) bzw. des Arguments x wird loga f (x) bzw. loga x dargestellt. Beispiel 1.3.12.1 Die Funktion f (x) = ex wird wegen
ex
loga f (x) = loga ex = x · loga e in logarithmischer Darstellung zu einer Geraden.
1
Im Diagramm notiert man dabei an der y-Achse in entsprechender H¨ohe den originalen Wert, s. Abb. 1.54.
−1
Abb. 1.53 e-Funktion.
log10 ex
ex
2
100 50
1
10 5
0
−1
x
−1
0
1
2
x
1
3
4
1 0.5 0.1
x
−1
0
1
2
3
4
Abb. 1.54 Darstellung mit logarithmischer Skala.
Bemerkung 1.3.13 (Area-Funktionen) Die Umkehrfunktionen zu den hyperbolischen Funktionen sinh x und cosh x nennt man Area-Funktionen: arsinh (Areasinus-hyperbolicus) und arcosh (Areacosinus-hyperbolicus). Diese Funktionen kann man mit Hilfe des Logarithmus ausdr¨ ucken. Beispielsweise ist arsinh x = ln(x + x2 + 1).
1.4 Modifikation von Funktionen
45
1.4 Modifikation von Funktionen 1.4.1 Verkettung Das Hintereinander-Ausf¨ uhren bzw. Ineinander-Einsetzen von Funktionen bezeichnet man als Verkettung.
Definition 1.4.1 (Verkettung) Seien f : M → N, g : S → T Funktionen und N ⊆ S.
155
Dann bezeichnet g ◦ f ( g kringel f“, g nach f“) die Funktion ” ” g ◦ f : M → T, g ◦ f (x) = g f (x)
(Verkettung/ Komposition von f und g). g◦f
f
M
N
g
T
S Abb. 1.55 Verkettung von Funktionen.
Bemerkung 1.4.2 zur Schreibweise Man beachte die Reihenfolge bei der Schreibweise: Bei der Darstellung von g ◦ f in Abb. 1.55 wird zun¨ achst die Funktion f (links) und dann die Funktion g (rechts) angewendet. Das Ergebnis wird mit g ◦ f (und nicht mit f ◦ g, s. auch Bem. 1.4.4) beschrieben.
ur g ◦ f verdeutlicht die Reihenfolge. Die Sprechweise g nach f“ f¨ ”
Beispiel 1.4.3 Sei f : R → R, f (x) = x2 und g : R → R, g(x) = x + 1. Dann ist g ◦ f (x) = g f (x) = g(x2 ) = x2 + 1
und
f ◦ g(x) = f g(x) = f (x + 1) = (x + 1)2 = x2 + 2x + 1.
Bemerkung 1.4.4 An Beispiel 1.4.3 sieht man, dass im Allgemeinen f ◦ g = g ◦ f ist.
46
1 Funktionen
1.4.2 Verschiebung Die Verkettung einer Funktion f : R → R mit x → x + a bewirkt eine Verschiebung des Funktionsgrafen: 156
• f (x) + a: Verschiebung des Funktionsgrafen um a nach oben,
• f (x + a): Verschiebung des Funktionsgrafen um a nach links, 157
• f (x − a): Verschiebung des Funktionsgrafen um a nach rechts.
Beispiele 1.4.5 1. Abb. 1.56 zeigt verschiedene Verschiebungen der Normalparabel. g(x) = f (x) + 1 = x2 + 1
f (x) = x2
1
g(x) = f (x + 1) = (x + 1)2
1
1 1
x
g(x) = f (x − 1) = (x − 1)2
1
x
1 x
-1
x
1
Abb. 1.56 Verschiebung von Funktionsgrafen.
2. Die Sinus- und Cosinus-Funktionen sind gegeneinander verschoben, s. Abb. 1.57: cos(x −
π ) = sin x. 2
1 cos x π
sin x π 2
- π2
π
x
-1 Abb. 1.57 sin- und cos-Funktion.
1.4.3 Skalierung Die Verkettung von f : R → R mit x → a · x, a > 0, bewirkt eine Stauchung oder Streckung des Funktionsgrafen. 158
• a · f (x): Stauchung (a ∈ ]0, 1[ ) bzw. Streckung (a > 1) in y-Richtung,
• f (a · x): Stauchung (a > 1) bzw. Streckung (a ∈ ]0, 1[ ) in x-Richtung.
159
1.4 Modifikation von Funktionen
47
Beispiel 1.4.6 Abb. 1.58 zeigt verschiedene Skalierungen der Sinus-Funktion. f (x) = sin x
g(x) =
1 2
· f (x) =
1
1 2
· sin x
g(x) = 2 · f (x) = 2 · sin x
1 π
x
1 π
g(x) = f (2x) = sin(2x)
x
g(x) = f
1
π
1 2
x = sin
1 π
x
x
1 2
x
x π
Abb. 1.58 Stauchungen und Streckungen.
1.4.4 Spiegelung Die Verkettung von f : R → R mit x → −x bewirkt eine Spiegelung des Funktionsgrafen. • −f (x): Spiegelung an der x-Achse,
160
• f (−x): Spiegelung an der y-Achse.
Beispiel 1.4.7
161
Abb. 1.59 zeigt Spiegelungen der Exponentialfunktion. f (x) = ex
g(x) = −f (x) = − ex
g(x) = f (−x) = e−x
1
1 x
x -1
Abb. 1.59 Spiegelungen.
x
2
Komplexe Zahlen
Dieses Kapitel widmet sich den komplexen Zahlen. Die in den folgenden Kapiteln dargestellten Themen k¨onnen damit komplex“ gelesen werden. Allerdings ” ist diese Sichtweise nicht unbedingt n¨otig; die meisten Darstellungen k¨ onnen auch reell“ verstanden werden. ” Entsprechend des Gebrauchs in der Elektrotechnik wird die imagin¨ are Einheit mit j“ gekennzeichnet; in anderen Disziplinen ist die Schreibweise i“ ” ” gebr¨auchlich.
2.1 Grundlagen Die Gleichung x2 = −1 hat in den reellen Zahlen keine L¨ osung. Daher wird eine neue Zahl, die imagin¨are Einheit j (oft auch als i“ geschrieben), eingef¨ uhrt, ” ullen soll. die j2 = −1 erf¨
Definition 2.1.1 (komplexe Zahlen) Die Menge C := {a + bj | a, b ∈ R} heißt Menge der komplexen Zahlen.
200
Zwei komplexe Zahlen addiert, subtrahiert und multipliziert man wie u ucksichtigung von j2 = −1. ¨blich mit j als Parameter unter Ber¨
Bemerkung 2.1.2 zur Schreibweise Bei komplexen Zahlen wird standardm¨aßig der Variablen-Buchstabe z verwendet, w¨ ahrend x meist f¨ ur eine reelle Variable steht. In der Literatur wird manchmal ein Variablenname auch unterstrichen, um kenntlich zu machen, dass es sich um einen komplexen Wert handelt.
© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 G. Hoever, Höhere Mathematik kompakt, https://doi.org/10.1007/978-3-662-62080-9_2
49
50
2 Komplexe Zahlen
Bemerkungen 2.1.3 (Gaußsche Zahlenebene) 1. Die komplexen Zahlen kann man in der Gaußschen Zahlenebene darstellen (s. Abb. 2.1): 201
202
Die Zahl z = a + bj zeichnet man als Punkt (a, b) oder als Pfeil (oft Zeiger genannt) vom Ursprung zu (a, b).
imagin¨ are Achse
b
z = a + bj a reelle Achse
Abb. 2.1 Gaußsche Zahlenebene.
2. Die Addition komplexer Zahlen geschieht in der Gaußschen Zahlenebene durch Aneinandersetzen der Zeiger, −z wird durch den am Ursprung gespiegelten Zeiger repr¨asentiert; entsprechend kann man z1 − z2 als z1 + (−z2 ) durch Zeiger veranschaulichen (s. Abb. 2.2 links). 3. Bei der Multiplikation werden die L¨angen der Zeiger multipliziert und die Winkel zwischen Zeiger und reeller positiver Achse addiert (s. Abb. 2.2 rechts).
203
Beispiel 2.1.4 204
Die Summe und Differenz der komplexen Zahlen 3 + 2j und −1 + j ist (3 + 2j) + (−1 + j) = 3 + 2j − 1 + j = 3 − 1 + (2 + 1)j = 2 + 3j, (3 + 2j) − (−1 + j) = 3 + 2j + 1 − j = 3 + 1 + (2 − 1)j = 4 + j. Die Multiplikation ergibt (3 + 2j) · (−1 + j) = 3 · (−1 + j) + 2j · (−1 + j) = − 3 + 3j − 2j + 2j2
= − 3 + (3 − 2)j + 2 · (−1) = − 5 + j.
Abb. 2.2 veranschaulicht die Rechnungen in der Gaußschen Zahlenebene. Im z
−1 + j
2 + 3j
−1 + j 3 + 2j
Im z 1−j
4+j Re z −(−1 + j) = 1 − j
3 + 2j −5 + j
−1 + j Re z
Abb. 2.2 Addition, Subtraktion und Multiplikation in der Gaußschen Zahlenebene.
2.1 Grundlagen
51
Satz 2.1.5 In den komplexen Zahlen gelten bzgl. +, − und · die gleichen Gesetze wie in den reellen Zahlen.
Definition 2.1.6 (Real-, Imagin¨arteil und Betrag/L¨ange) Zu einer komplexen Zahl z = a + bj ∈ C mit a, b ∈ R heißt
205
• a Realteil ( Re z) und b Imagin¨arteil ( Im z), √ • |z| = a2 + b2 Betrag (oder L¨ange) von z.
Bemerkung 2.1.7 zum Betrag Wie man an Abb. 2.3 sieht, entspricht der Betrag einer komplexen Zahl nach dem Satz des Pythagoras der L¨ange des entsprechenden Zeigers.
Beispiele 2.1.8
b
|z|
z = a + bj
a
Re z Abb. 2.3 Realteil, Imagin¨ arteil und Betrag zu z.
1. Zu der Zahl z = 3 + 2j ist Re z = 3,
Im z
Im z = 2
und
|z| =
32 + 22 =
√
2. Man kann nachrechnen, dass sich bei der Multiplikation (3 + 2j) · (−1 + j) = −5 + j (s. Beispiel 2.1.4) tats¨achlich die L¨angen multiplizieren: √ √ Mit |3 + 2j| = 13 (s. 1.) und | − 1 + j| = (−1)2 + 12 = 2 ist √ (−5)2 + 12 = 26 | − 5 + j| = √ √ = 13 · 2 = |3 + 2j| · | − 1 + j|. Im folgenden Satz 2.1.9 wird dies auch allgemein festgehalten.
Satz 2.1.9 (Eigenschaften des Betrags) F¨ ur z1 , z2 ∈ C gilt 1.
|z1 · z2 | = |z1 | · |z2 |,
2.
|z1 + z2 | ≤ |z1 | + |z2 |
(Dreiecksungleichung).
13.
52
2 Komplexe Zahlen
Bemerkungen 2.1.10 zu den Eigenschaften des Betrags 1. Die Eigenschaften des Betrags bei komplexen Zahlen sind identisch mit denen bei reellen Zahlen, s. Satz 1.1.71. 2. Der Name Dreiecksungleichung“ zur Unglei- Im z ” chung von Satz 2.1.9, 2., wird in der Gaußschen Zahlenebene plausibel, wie Abb. 2.4 zeigt: Die L¨ange des Zeigers zu z1 + z2 ist kleiner oder gleich der Summe der L¨ange der Zeiger zu z1 und z2 .
z2
z1
z 1 + z2 Re z
z2
Abb. 2.4 Dreiecksungleichung.
Definition 2.1.11 (konjugiert komplexe Zahl) 206
Zu einer komplexen Zahl z = a + bj ∈ C mit a, b ∈ R heißt z ∗ := a − bj die zu z konjugiert komplexe Zahl.
Bemerkungen 2.1.12 zur konjugiert komplexen Zahl 1. Die konjugiert komplexe Zahl z ∗ erh¨alt man in der Gaußschen Zahlenebene durch Spiegelung von z an der reellen Achse (s. Abb. 2.5). Sie besitzt also den entsprechend negativen Winkel bzgl. der reellen Achse.
b
a
Beispiel 2.1.12.1
z ∗ = a − bj
Zu der Zahl z = 3 + 2j ist z
∗
z = a + bj
Abb. 2.5 Konjugiert komplexe Zahl.
= 3 − 2j.
2. Die zu z konjugiert komplexe Zahl wird in der Literatur manchmal auch mit z¯ bezeichnet.
Satz 2.1.13 (Rechenregeln f¨ur konjugiert komplexe Zahlen) F¨ ur z, z1 , z2 ∈ C gilt 1. 2. 3. 4.
|z| = |z ∗ |,
z · z ∗ = |z|2 ,
z + z ∗ = 2 · Re z
und
(z1 ± z2 )∗ = z1∗ ± z2∗
z − z ∗ = 2j · Im z,
und (z1 · z2 )∗ = z1∗ · z2∗ .
2.1 Grundlagen
53
Bemerkungen 2.1.14 zu den Rechenregeln f¨ur konjugiert komplexe Zahlen 1. Dass |z| = |z ∗ | gilt, sieht man auch an Abb. 2.5. 2. Die Beziehung z · z ∗ = |z|2 ergibt sich rechnerisch f¨ ur z = a + bj wegen z · z ∗ = (a + bj) · (a − bj)
3. binomische
= Formel
a2 − (bj)2 = a2 − b2 j2
= a2 − b2 · (−1)
= a2 + b2 = |z|2 .
⎧
⎪ Da z und z ∗ zueinander gespiegelte ⎪ ⎪ ⎨ Winkel haben, ist z · z ∗ = |z|2 auch mit 2 · Im z z − z ∗ ⎪ Bemerkung 2.1.3, 3., klar. ⎪ ⎪ ⎩
z z + z∗
Die beiden Beziehungen von Satz 2 · Re z 2.1.13, 3., lassen sich a¨hnlich nachrechz∗ nen, sind aber auch in der Gaußschen Zahlenebene plausibel (s. Abb. 2.6). Abb. 2.6 Addition und Subtraktion von z und z ∗ .
Mit Hilfe der konjugiert komplexen Zahl kann man nun auch die Division von komplexen Zahlen durchf¨ uhren:
Satz 2.1.15 (Division durch komplexe Zahlen) F¨ ur z = 0 ist
z∗ 1 = . z |z|2
Bemerkungen 2.1.16 zur Division durch komplexe Zahlen 1. Satz 2.1.15 erh¨alt man durch Erweiterung mit der konjugiert komplexen Zahl z ∗ unter Ausnutzung von z · z ∗ = |z|2 (s. Satz 2.1.13, 2.): z∗ z∗ 1 = = . ∗ z z·z |z|2 Merkregel: Man dividiert durch eine komplexe Zahl, indem man mit der konjugiert komplexen Zahl erweitert. Beispiel 2.1.16.1 Es ist (vgl. Abb. 2.7) 2−j 2−j 2 1 2−j 1 = = 2 = − j. = 2+j (2 + j)(2 − j) 2 + 12 5 5 5
207
54
2 Komplexe Zahlen
Mit der Merkregel kann man auch den Bruch zweier komplexer Zahlen berechnen. Beispiel 2.1.16.2 Durch Erweitern mit (1 − 2j)∗ = 1 + 2j erh¨ alt man (1 + j)(1 + 2j) 1+j = 1 − 2j (1 − 2j)(1 + 2j) 1 3 −1 + 3j 1 + 2j + j − 2 = − + j. = = 2 2 1 +2 5 5 5 2. Die Lage von z1 in der Gaußschen Zahlenebe- Im z ne kann man sich mit Bemerkung 2.1.3, 3., folgendermaßen u ¨berlegen (s. Abb. 2.7): 208
Die Multiplikation von z1 mit z ergibt 1, also den Winkel 0 zur reellen positiven Achse. Der Winkel des Zeigers zu z1 muss also zu dem von z gespiegelt sein, und somit dem m¨ ussen mulvon z ∗ entsprechen. Die L¨ angen 1 (vgl. auch tipliziert 1 ergeben, also z1 = |z| Satz 2.1.17).
j
z
1 z
1
2 Re z z∗
Abb. 2.7 Kehrwert einer komplexen Zahl.
Satz 2.1.17
∗ z1 |z1 | z1 z∗ und = 1∗ . F¨ ur z1 , z2 ∈ C, z2 = 0, gilt = z2 |z2 | z2 z2
Bemerkung 2.1.18 Auf C gibt es keine gr¨oßer- oder kleiner-Relationen. Aussagen wie j < 1“ ” sind sinnlos.
2.2 Eigenschaften
Satz 2.2.1 ( Wurzeln“ aus komplexen Zahlen) 209
” F¨ ur jedes w ∈ C gibt es ein z ∈ C mit z 2 = w.
2.2 Eigenschaften
55
Bemerkungen 2.2.2 zu Wurzeln“ aus komplexen Zahlen ” 1. Grafisch erh¨alt man ein solches z mit z 2 = w durch Halbierung des Winkels und WurzelNehmen des Betrags. Mit z gilt dann auch f¨ ur z˜ = −z, dass z˜2 = (−z)2 = z 2 = w ist. Man erh¨alt −z auch, indem man den Winkel zu w in negativer Richtung (im Uhrzeigersinn) betrachtet und halbiert.
Im z w j
z
210
1 Re z z˜ Abb. 2.8 L¨ osungen zu z 2 = w.
Beispiel 2.2.2.1 Im z z
Zu w = −2 gilt f¨ ur √ z = 2 · j und √ z˜ = −z = − 2 · j,
j
w 1 Re z z˜
dass z 2 = z˜2 = w ist. Abb. 2.9 L¨ osungen zu z 2 = −2.
Beispiel 2.2.2.2
Zu z 2 = j erh¨alt man eine L¨osung in diagonaler Richtung mit L¨ ange 1, also z = √12 + √12 j. Tats¨achlich ist z2 = = = =
1 2 1 2
√1 2 √1 2
+ 2
2
Im z
√1 j 2
+2·
+ 2 · 21 j + +j−
1 2
√1 2 1 2 2j
w
·
√1 j 2
= j.
Damit gilt auch (−z)2 = z 2 = j.
+
2
j
z 1
√1 j 2
Re z −z Abb. 2.10 L¨ osungen zu z 2 = j.
2. Da man nicht festlegen will, welche der osungen zu z 2 = w als √ beiden L¨ -Funktion weiterhin nur f¨ ur reelle Wurzel aus w gemeint sein soll, ist die Zahlen x ≥ 0 definiert. √ onnte man Umgangssprachlich sagt man oft j = −1“, aber genauso k¨ √ ” −1 = −j sagen. Ein zu unbek¨ ummerter Umgang mit Wurzeln aus negativen Zahlen kann zu Fehlschl¨ ussen f¨ uhren, z.B. √ √ √ (−1) · (−1) = 1 = 1. −1 = j · j = −1 · −1 =
3. Die Wurzel“ aus negativen oder komplexen Zahlen kommt bei der u ¨bli” chen Anwendung der p-q-Formel (Satz 1.1.15) zur L¨ osung quadratischer Gleichungen x2 + px + q = 0 vor.
211
56
2 Komplexe Zahlen Die L¨osungsformel p √ x = − ± D 2
mit
D =
p 2 2
− q,
ist weiterhin g¨ ultig √ (auch bei komplexen Koeffizienten p und q), wenn man osungen (z und −z) den Ausdruck ± D so interpretiert, dass hier beide L¨ zu z 2 = D zu nehmen sind. Beispiel 2.2.2.3 Die Gleichung x2 + 2x + 3 = 0 hat nach der p-q-Formel die L¨ osungen 2 √ 2 2 x = − ± − 3 = −1 ± −2. 2 2
√ √ Mit ± −2 sind die beiden L¨osungen zu z 2 = −2, also z = ± 2 j gemeint (vgl. Beispiel 2.2.2.1), also √ x = −1 ± 2 j. Man erh¨alt also das richtige Ergebnis, wenn man (mathematisch nicht ganz sauber) rechnet √ √ √ √ ± −2 = ± 2 · (−1) = ± 2 · −1 = ± 2 j.
Die p-q-Formel gilt auch f¨ ur komplexe Koeffizienten p und q. Dann ist D √ gegebenenfalls komplex; ± D sind dann weiter die beiden L¨ osungen (z und −z) zu z 2 = D. Beispiel 2.2.2.4 Die Gleichung z 2 − 2jz + (−1 − j) = 0 hat die L¨ osungen 2 −2j 2j ± z = − − (−1 − j) = j ± −1 + 1 + j = j ± j. 2 2
Nach Beispiel 2.2.2.2, sind ± √12 + driert j ergeben. Also ist weiter z = j ± √12 + √12 j .
√1 j 2
die beiden L¨ osungen, die qua-
Die beiden L¨osungen der quadratischen Gleichung sind also und z = − √12 + 1 − √12 j. z = √12 + 1 + √12 j
2.2 Eigenschaften
57
Satz 2.2.3 (Fundamentalsatz der Algebra) In C besitzt jedes Polynom p(z) = an z n + an−1 z n−1 + · · · + a1 z + a0 mit an = 0 genau n Nullstellen (inklusive Vielfachheit) z1 , z2 , . . . , zn .
212
Es gilt dann p(z) = an (z − z1 )(z − z2 ) · . . . · (z − zn ).
Man sagt auch: In C kann man jedes Polynom in Linearfaktoren zerlegen.
Beispiele 2.2.4 1. Das Polynom p(z) = z 2 + 1 besitzt die Nullstellen ±j. Es ist p(z) = z 2 + 1 = (z − j)(z + j). 2. Das Polynom p(z) = z 3 + z 2 + z − 3 besitzt z = 1 als Nullstelle. Eine Polynomdivision oder Anwendung des Horner-Schemas bringt p(z) = (z − 1)(z 2 + 2z + 3). Die Nullstellen von z 2 + 2z + 3 sind nach Beispiel 2.2.2.3 z = −1 ± Damit ist √ √ p(z) = (z − 1) z − (−1 + 2j) z − (−1 − 2j) .
√
2j.
Satz 2.2.5 Ist p(z) ein Polynom mit reellen Koeffizienten, so gilt: ∗ 1. F¨ ur alle z ∈ C ist p(z ∗ ) = p(z) .
213
2. Ist z0 eine Nullstelle von p, so ist auch z0 ∗ Nullstelle von p.
Bemerkungen 2.2.6 zu Satz 2.2.5 1. Das folgende Beispiel verdeutlicht, warum bei Polynomen mit reellen Koef ∗ fizienten p(z ∗ ) = p(z) gilt: Beispiel 2.2.6.1
Sei p(z) = z 3 − 2z + 4.
Mehrfache Anwendung von Satz 2.1.13, 4., ergibt (z ∗ )3 = (z 3 )∗ und damit p(z ∗ ) = (z ∗ )3 − 2z ∗ + 4 = (z 3 )∗ − 2z ∗ + 4.
214
58
2 Komplexe Zahlen F¨ ur reelle Zahlen a ∈ R gilt a∗ = a, so dass man die reellen Koeffizienten auch konjugiert komplex schreiben kann. Entsprechend Satz 2.1.13, 4., kann man dann die komplexe Konjugation auf den gesamten Ausdruck beziehen: ∗ ∗ = p(z) . p(z ∗ ) = (z 3 )∗ − 2∗ z ∗ + 4∗ = z 3 − 2z + 4
2. Die zweite Aussage von Satz 2.2.5 folgt direkt aus der ersten: Ist z0 eine Nullstelle von p, so gilt p(z0 ∗ ) = (p(z0 ))∗ = 0∗ = 0. / R, so f¨ uhrt die Zusammenfassung der Linearfaktoren (z − z0 ) und 3. Ist z0 ∈ (z − z0 ∗ ) zu einem reellen quadratischen Polynom: (z − z0 ) · (z − z0 ∗ ) = z 2 − (z0 + z0 ∗ ) · z + z0 · z0 ∗ = z 2 − 2 · Re (z0 ) · z + |z0 |2 .
Dieses quadratische Polynom ist in den reellen Zahlen nullstellenfrei. Beispiel 2.2.6.2 Das Polynom p(z) = z 4 +1 besitzt als Nullstellen die L¨osungen zu z 4 = −1, also zu z 2 = ±j: z1/2 =
√1 2
±
Im z j
√1 j, 2
z3/4 = − √12 ±
Re z −1
√1 j. 2
Nach Satz 2.2.3 ist damit 4
z + 1 = (z − z1 )(z − z2 )(z − z3 )(z − z4 ).
1
Abb. 2.11 Die L¨ osungen von z 4 = −1.
Die Zusammenfassung der Linearfaktoren zu den zueinander konjugiert uhrt nach Bemerkung 2.2.6, 3., zu komplexen Nullstellen z1 und z2 f¨ (z − z1 )(z − z2 ) = z 2 − 2 · Re (z1 ) · z + |z1 |2 = z2 − 2 ·
√1 2
· z + 1 = z2 −
√ 2 · z + 1,
und die zu z3 und z4 entsprechend zu (z − z3 )(z − z4 ) = z 2 − 2 · Re (z3 ) · z + |z3 |2 = z 2 + Damit erh¨alt man (vgl. Beispiel 1.1.39) √ √ p(z) = z 4 + 1 = z 2 − 2z + 1 · z 2 + 2z + 1 .
√
2 · z + 1.
2.3 Polardarstellung
59
2.3 Polardarstellung Die Exponentialfunktion x → ex kann man in nat¨ urlicher Weise auf komplexe ur Werte erweitern (s. Bemerkung 3.1.23 und Bemerkung 3.3.5, 1.) und so ez f¨ z ∈ C definieren. Es gilt dann weiterhin ez1 +z2 = ez1 · ez2 . Insbesondere gilt also f¨ ur a, b ∈ R: ea+jb = ea · ejb ; dabei ist ea durch die reelle Exponentialfunktion bekannt. Der folgende Satz 2.3.1 kl¨art die Bedeutung von ejb .
Satz 2.3.1 (Euler-Formel) Es gilt
215
ejx = cos x + j sin x
e−jx = cos x − j sin x.
und
Bemerkungen 2.3.2 zur Euler-Formel 1. Die komplexe Zahl ejx = cos x + j sin x zu x ∈ R liegt also in der Gaußschen Zahlenebene auf dem Einheitskreis im Winkel x zur reellen positiven Achse, ur jedes x ∈ R. s. Abb. 2.12. Insbesondere gilt | ejx | = 1 f¨ Im z
Im z
π
ej 2
π
ej 4
ejx
j sin x
x cos x
ejπ
e0 = ej2π Re z
Re z
Abb. 2.12 Die komplexe Exponentialfunktion in der Gaußschen Zahlenebene.
Beispiele 2.3.2.1 Es ist e0 = ej·0 jπ 4
e
= cos
= cos 0 + j sin 0 = 1, π 4
+ j sin
π 4
π
ej 2 = cos π2 + j sin π2 jπ
=
√1 2
+j·
√1 , 2
= 0 + j · 1 = j,
= −1 + j · 0 = −1,
e
= cos π + j sin π
j2π
= cos(2π) + j sin(2π) = 1 + j · 0 = 1.
e
2. Eigentlich heißt nur die erste Formel ( ejx = cos x + j sin x) Euler-Formel 3. Die zweite Gleichung folgt direkt aus der Euler-Formel wegen e−jx = ej(−x) = cos x + j sin(−x) = cos x + j(− sin x) = cos x − j sin x.
60
2 Komplexe Zahlen
Bemerkung 2.3.3 216
Jedes z ∈ C ist eindeutig beschrieben durch den Abstand r zu 0 und den Winkel ϕ zur reellen Achse, s. Abb. 2.13. Es besitzt also die Darstellung
Im z
j
⎧ ⎪ ⎪ ⎪ ⎪ ⎪ ⎨
r
z = r · ejϕ
1
ejϕ
r · sin ϕ
⎪ ⎪ ⎪ ⎪ ⎪ ⎩
z = r · ejϕ = r · (cos ϕ + j · sin ϕ)
Re z
ϕ
r · cos ϕ
= r · cos ϕ + j · r · sin ϕ.
1
Abb. 2.13 Polardarstellung.
Satz 2.3.4 (Polardarstellung) Zu jeder komplexen Zahl z ∈ C gibt es eine Polardarstellung z = r · ejϕ
mit r ∈ R≥0 und ϕ ∈ R.
Bemerkungen 2.3.5 zur Polardarstellung 1. Manchmal nennt man die Darstellung z = r · ejϕ auch Exponentialdarstellung und nur z = r · cos ϕ + j · r · sin ϕ Polardarstellung. 2. Der Winkel ϕ in der Polardarstellung ist nicht eindeutig: Statt ϕ kann man auch ϕ ± 2π, ϕ ± 4π u.s.w. nehmen. Dies sieht man beispielsweise auch an ej(ϕ+2π) = ejϕ+j·2π = ejϕ · ej·2π = ejϕ · 1 = ejϕ .
Bemerkung 2.3.6 (Bestimmung von r und ϕ) 217
Ist z = a + bj mit a, b ∈ R gegeben, so ist a 2 + b2 . r = |z| = Den Winkel ϕ kann man mit Hilfe des Arcustangens berechnen.
Dabei ist zu beachten, dass der Arcustangens nur den Tangens im Intervall ]− π2 , π2 [ umkehrt. Es gilt (vgl. Abb. 2.14) f¨ ur a > 0: ϕ = arctan
Im z a0 Re z
b a
z1
b f¨ ur a < 0: ϕ = π + arctan a f¨ ur a = 0: falls b > 0: ϕ =
π 2
Abb. 2.14 Bestimmung von ϕ.
und
π falls b < 0: ϕ = − . 2
2.3 Polardarstellung
61
Beispiel 2.3.6.1 Zu z1 = 2 − j ist ϕ = arctan
−1 = arctan(−0.5) ≈ −0.46. 2
Zu z2 = −2 + j ist ϕ = π + arctan
1 = π + arctan(−0.5) ≈ 3.14 − 0.46 = 2.68. −2
(Zur Lage von z1 und z2 vgl. Abb. 2.14.)
Bemerkung 2.3.7 Mittels der Polardarstellung wird die geometrische Interpretation einiger Rechenoperationen klarer:
218
1. Bei der Multiplikation komplexer Zahlen werden die Betr¨ age multipliziert und die Winkel addiert (vgl. Bemerkung 2.1.3, 3.): F¨ ur z1 = r1 · ejϕ1 und z2 = r2 · ejϕ2 gilt: z1 · z2 = r1 · ejϕ1 · r2 · ejϕ2 = r1 r2 · ejϕ1 · ejϕ2
219
= r1 r2 · ej(ϕ1 +ϕ2 ) .
2. Die konjugiert komplexe Zahl erh¨alt man durch Spiegelung des Winkels (vgl. Bemerkung 2.1.12): ∗ ∗ r · ejϕ = r(cos ϕ + j sin ϕ) ∗ = r cos ϕ + j · r sin ϕ = r cos ϕ − j · r sin ϕ = r · e−jϕ .
3. Der Winkel des Zeigers zu z1 ist zu dem von und f¨ ur die Betr¨age gilt 1 z gespiegelt, = 1 (vgl. Bemerkung 2.1.16, 2.): z |z| F¨ ur z = r · ejϕ gilt:
1 1 1 −jϕ = ·e . = jϕ z r· e r
z = r · ejϕ
Im z ϕ −ϕ
Re z z ∗ = r · e−jϕ
Abb. 2.15 Konjugiert komplexe Zahl in Polardarstellung. Im z j
z 220 1 z
1
2 Re z
Abb. 2.16 Kehrwert einer komplexen Zahl.
62
221
2 Komplexe Zahlen 4. L¨osungen zu z 2 = w erh¨alt man durch Halbierung des Winkels und WurzelNehmen des Betrags (vgl. Bemerkung 2.2.2, 1.): √ ϕ F¨ ur w = r · ejϕ und z = r · ej 2 gilt z
2
=
√
r· e
= r· e
2 jϕ 2
jϕ 2 ·2
=
√
= r· e
2
r · e
jϕ
2 jϕ 2
= w.
Im z w j
z 1 Re z
z˜ Abb. 2.17 L¨ osungen zu z 2 = w.
Bemerkung 2.3.8 222
Die Euler-Formel (Satz 2.3.1) erlaubt die Herleitung der Additionstheoreme (s. Satz 1.1.55, 3.): Einerseits gilt ej(x+y) = cos(x + y) + j sin(x + y). Andererseits ist ej(x+y) = ejx+jy = ejx · ejy
= (cos x + j sin x) · (cos y + j sin y) = cos x cos y − sin x sin y + j(cos x sin y + sin x cos y).
Der Vergleich von Real- und Imagin¨arteil liefert
und
cos(x + y) = cos x cos y − sin x sin y sin(x + y) = cos x sin y + sin x cos y.
3
Folgen und Reihen
Folgen und deren Grenzwerte sind fundamental f¨ ur das Verst¨ andnis von Funktionsgrenzwerten und Ableitungen. Reihen und Potenzreihen sind spezielle Folgen, mit denen die trigonometrischen Funktionen und die Funktion f (x) = ex nochmal auf eine solide Basis gestellt werden k¨onnen. Die weiteren Kapitel sind davon weitestgehend unabh¨ angig, auch wenn die Potenzreihen-Darstellungen an der ein oder anderen Stelle hilfreich sind. Die vorkommenden Variablen und Sachverhalte k¨ onnen – falls nichts anderes erw¨ahnt ist – in den komplexen Zahlen C aufgefasst werden. Es reicht aber auch ein Verst¨andnis allein innerhalb der reellen Zahlen R.
3.1 Folgen Beispiel 3.1.1 Herr Meyer bringt ein Guthaben G zur Bank, das dort mit dem Zinssatz p verzinst wird. Sein Guthaben w¨achst nach einem Jahr auf G1 = (1 + p) · G, zwei Jahren auf G2 = (1 + p) · G1
= (1 + p) · (1 + p) · G = (1 + p)2 · G,
drei Jahren auf G3 = (1 + p) · G2
= (1 + p) · (1 + p)2 · G = (1 + p)3 · G,
... allgemein: Gn = (1 + p) · Gn−1 = (1 + p)n · G. Durch G1 , G2 , G3 , . . . erh¨alt man eine Folge.
Die Definition der Folgenglieder mittels R¨ uckgriff auf den vorherigen Wert (Gn = (1 + p) · Gn−1 , G1 = (1 + p) · G) nennt man rekursive Definition. © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 G. Hoever, Höhere Mathematik kompakt, https://doi.org/10.1007/978-3-662-62080-9_3
63
300
64
3 Folgen und Reihen
Definition 3.1.2 (Folge) Eine Abbildung, die jeder nat¨ urlichen Zahl n einen Wert an zuordnet, heißt Folge, Schreibweise: (an )n∈N .
Bemerkungen 3.1.3 zur Definition einer Folge 1. Die einzelnen Werte an nennt man Folgenglieder 2. Der Definitions- bzw. Indexbereich kann statt N auch N0 , also mit einem Folgenglied a0 , oder ¨ahnlich sein. Im Beispiel 3.1.1 ist G0 = G sinnvoll, so alt. dass man eine Folge G0 , G1 , G2 , . . . erh¨ 3. Sind alle an ∈ R, so spricht man von einer reellen Folge. 4. Eine Folge kann man als Funktionsgraf oder als Werte auf der Zahlengerade darstellen. Beispiel 3.1.3.1 Abb. 3.1 zeigt die Folge ( n1 )n∈N mit den Folgegliedern n1 einerseits als Funktionsgraf N → R (links) und andererseits als Werte auf der Zahlengeraden, die man als Funktionswert-Achse nach oben orientieren kann (Mitte) oder u ¨blicherweise nach rechts orientiert (rechts). an 1
1+
+
0
1
+
+ + + + + + 1 2 3 4 5 6 7 8 n
a2
+ + + + + + + +
+ + + + + 0+
+
a1 a3 a4 ...
Abb. 3.1 Verschiedene Darstellungen einer reellen Folge.
Definition 3.1.4 (Monotonie und Beschr¨anktheit) 301
1. Eine reelle Folge (an )n∈N heißt monoton fallend, monoton wachsend, streng monoton fallend, streng monoton wachsend,
:⇔ f¨ ur alle n ∈ N ist
2. Eine Folge (an )n∈N heißt beschr¨ankt ur alle n ∈ N. :⇔ es gibt ein C ∈ R mit |an | ≤ C f¨
an ≥ an+1 an ≤ an+1
an > an+1 an < an+1
.
3.1 Folgen
65
Beispiel 3.1.5 Die Folge ( n1 )n∈N (s. Beispiel 3.1.3.1) ist offensichtlich streng monoton fallend und beschr¨ankt.
Bemerkung 3.1.6 (Beschr¨anktheit nach oben/unten) Man nennt eine reelle Folge auch nach oben bzw. unten beschr¨ ankt, wenn es ein C gibt, so dass an ≤ C bzw. an ≥ C f¨ ur alle n ∈ N ist. Beispiele 3.1.6.1 1. Die Folge (an )n∈N mit an = n ist nach unten beschr¨ ankt (beispielsweise durch C = 1 oder C = 0), aber nicht nach oben beschr¨ ankt. 2. Die Folge (an )n∈N mit an = (−1)n · n ist weder nach oben noch nach unten beschr¨ankt. Offensichtlich ist eine reelle Folge genau dann beschr¨ ankt, wenn sie sowohl nach oben als auch nach unten beschr¨ankt ist. Beispiel 3.1.6.2 Nimmt die Folge (an )n∈N immer abwechselnd die Werte −1 und 3 an, so ist sie durch C = −1 nach unten beschr¨ ankt und durch C = 3 nach oben beschr¨ankt. Eine untere Schranke ist aber auch C = −3. Die Folge ist beschr¨ ankt durch C = 3, denn f¨ ur alle Folgenglieder gilt |an | ≤ 3.
Definition 3.1.7 (Konvergenz) Eine Folge (an )n∈N heißt konvergent gegen den Grenzwert a, Schreibn→∞ weise: lim an = a oder an −→ a, n→∞
:⇔
F¨ ur jedes ε > 0 gibt es ein N , so dass f¨ ur alle n ≥ N gilt: |an − a| < ε.
Bemerkungen 3.1.8 zur Definition der Konvergenz 1. Eine Folge, die nicht konvergiert, heißt divergent. 2. Statt n ≥ N“ k¨onnte man ¨aquivalent auch n > N“ und statt |an −a| < ε“ ” ” ” k¨onnte man auch |an − a| ≤ ε“ in der Definition schreiben. ”
302
66
3 Folgen und Reihen
3. Zu ε > 0 und einem Wert a definiert man die ε-Umgebung von a als Uε (a) = {x | |x − a| < ε}. Konvergenz gegen a bedeutet, dass f¨ ur jedes ε > 0 die Folgenglieder an ab angt N meist von ε ab. einem bestimmten Index N in Uε (a) liegen. Dabei h¨ In Abb. 3.2 liegen die Folgenglieder an ab n ≥ 8 in der angedeuteten εUmgebung von a. + +
an
ε a
+
ε
+ +
+
+ +
+
+ +
+ + +
a
+ + +++++ +++++ ++
n
ε
ε
1 2 3 4 5 6 7 8 9 10 . . . Abb. 3.2 ε-Umgebung bei einem Folgen-Funktionsgraf und auf dem Zahlenstrahl.
4. Eine Folge mit Grenzwert 0 heißt auch Nullfolge.
Beispiele 3.1.9 303
1 = 0. n legt man ε > 0 beliebig fest, so gilt f¨ ur n > Denn 1 1 − 0 < ε bzw. anders ausgedr¨ u ckt ∈ U (0). ε n n
1. Es gilt lim
n→∞
1 ε,
dass
F¨ ur beispielsweise ε = 0.1 liegen alle Folgenglieder mit n > ur ε = 0.01 alle mit n > 100. mit n ≥ 11, in U0.1 (0), f¨
1 n
< ε ist, also
1 0.1
= 10, also
ur alle n. Dann ist lim an = 3, denn f¨ ur jedes ε > 0 und alle n 2. Sei an = 3 f¨ n→∞
ist |an − 3| = 0 < ε.
Satz 3.1.10 304
1. Jede konvergente Folge ist beschr¨ankt. 2. Jede monotone und beschr¨ankte Folge ist konvergent.
Bemerkungen 3.1.11 zu Satz 3.1.10 1. Satz 3.1.10, 1., ist leicht einsichtig, da bei einer konvergenten Folge (an )n∈N die Folgenglieder f¨ ur große n innerhalb einer 1-Umgebung um den Grenzwert liegen. Die endlich vielen anderen Folgenglieder liegen dann auch innerhalb bestimmter Schranken. 2. Die beiden Aussagen von Satz 3.1.10 sind nicht umkehrbar:
3.1 Folgen
67
• Es gibt beschr¨ Folgen, die nicht konvergent sind, z.B. die Folge ankte (an )n∈N = (−1)n n∈N (s. Abb. 3.3, links).
• Es gibt konvergente Folgen, die nicht monoton sind, z.B. (bn )n∈N = (−1)n (s. Abb. 3.3, rechts). n n∈N an
1
+
+
+
bn
+
1
+ n
1
+
+
+
+
+
1
+ +
+
+
+
+
+n
+
Abb. 3.3 Beschr¨ ankte, nicht konvergente und konvergente, nicht monotone Folge.
Satz 3.1.12 (Rechenregeln f¨ur konvergente Folgen) Sind (an )n∈N bzw. (bn )n∈N konvergente Folgen mit Grenzwerten a bzw. b, so gilt: lim (an ± bn ) = a ± b,
n→∞
lim (an · bn ) = a · b,
n→∞
lim
n→∞
an bn
=
a , b
falls b = 0 ist.
Beispiele 3.1.13 Mehrfache Anwendung von Satz 3.1.12 ergibt
1 1 1 lim 1 + 2 · = lim 1 + lim n→∞ n→∞ n n n→∞ n 1 1 = 1 + lim · lim = 1 + 0 · 0 = 1. n→∞ n n→∞ n Damit erh¨alt man nach K¨ urzen von n2 n2 = n→∞ n2 + 1 lim
1 n2 = lim n→∞ 1 + 12 n→∞ n2 1 + 12 n n lim 1 1 n→∞ = = 1. = 1 lim 1 + n12 lim
n→∞
¨ Ahnlich f¨ uhrt das Ausklammern der h¨ochsten Potenz zu n3 1 + n12 1 + n12 n→∞ 1 + 0 1 n3 + n = = = −→ 1 3 4n + 1 4+0 4 4 + n13 n3 4 + n3
305
68
3 Folgen und Reihen und n 1 + n2 1 1 + n2 n+2 = = · n2 + 1 n 1 + n12 n2 1 + n12
n→∞
−→ 0 ·
1+0 = 0. 1+0
Bemerkung 3.1.14 (Grenzwerte bei gebrochen rationalen Ausdr¨ucken) 306
Durch Ausklammern der h¨ochsten Potenz wie in den letzten beiden Rechnungen von Beispiel 3.1.13 sieht man allgemein, dass bei Polynomen p und q der Grenzwert lim p(n) gleich Null ist, wenn der Grad vom Polynom p n→∞ q(n) kleiner als der von q ist. Falls die Polynome gleichen Grad haben, ist der Grenzwert gleich dem Quotienten der Koeffizienten zur h¨ ochsten Potenz. (Vgl. Satz 3.1.19)
Beispiel 3.1.15 (Grenzwertbetrachtung bei rekursiv definierten Folgen) Die Folge (an )n∈N sei rekursiv definiert durch 307
a1 = 2 und
an+1 =
Damit ist a2 = 1.5,
1 2 . an + 2 an
a3 ≈ 1.41667,
a4 ≈ 1.414216.
Vermutet man, dass der Grenzwert a = lim an existiert, so kann man a n→∞ mit Hilfe von Satz 3.1.12 bestimmen, denn dann gilt:
2 1 2 1 an + a+ , = a = lim an+1 = lim n→∞ n→∞ 2 an 2 a und damit 2a = a +
2 a
⇒
2a2 = a2 + 2
⇒
a2 = 2.
Da √ offensichtlich alle Folgenglieder positiv sind, ist a ≥ 0, so dass nur a = 2 ≈ 1.4142136 in Frage kommt.
Definition 3.1.16 (Unendlich als Grenzwert) 308
Man sagt, eine reelle Folge (an )n∈N strebt gegen Unendlich, Schreibn→∞ weise lim an = ∞ oder an −→ ∞, n→∞
:⇔
F¨ ur jedes C ∈ R gibt es ein N , so dass f¨ ur alle n ≥ N gilt: an > C.
Entsprechend definiert man lim an = −∞. n→∞
3.1 Folgen
69
Bemerkungen 3.1.17 zur Definition 3.1.16 1. Konvergenz im eigentlichen Sinne ist Konvergenz gegen eine Zahl a ∈ R bzw. a ∈ C. Eine Folge (an )n∈N mit lim an = ±∞ nennt man auch bestimmt divergent n→∞ oder uneigentlich konvergent.
2. Die Grenzwerts¨atze 3.1.12 gelten uneingeschr¨ ankt nur bei eigentlicher Konvergenz. Beispielsweise kann bei an → 0 und bn → ∞ beim Produkt an · bn alles M¨ogliche passieren. 309
Beispiel 3.1.17.1 Es gilt n12 · n → 0, n1 · n → 1 und n1 · n2 → ∞, w¨ ahrend immer der erste Faktor gegen 0 und der zweite gegen Unendlich strebt.
Beispiele 3.1.18 1. Es ist n2 · 1 − n12 1 − n12 n2 − 1 = . = n · n+2 1 + n2 n · 1 + n2
Der letzte Faktor strebt gegen 1, ist also f¨ ur große n gr¨ oßer als 21 . Damit ist 1 der gesamte Ausdruck dann gr¨oßer also 2 n, womit man sieht, dass er u ¨ber 2 −1 = ∞ gilt. alle Grenzen w¨achst, also lim nn+2 n→∞
¨ 2. Mit ¨ahnlichen Uberlegungen wie bei 1. erh¨ alt man 1 − n3 = −∞ n→∞ 2n2 + 1 lim
und
n4 = −∞. n→∞ 1 − n2 lim
Dabei sorgt beim linken Ausdruck der Z¨ ahler f¨ ur das negative Vorzeichen, beim rechten Ausdruck der Nenner. Ausschlaggebend sind dabei die Vorzeichen der f¨ uhrenden Koeffizienten im Z¨ahler bzw. Nenner.
Satz 3.1.19 (Grenzwerte bei gebrochen rationalen Funktionen) Sind p und q Polynome mit f¨ uhrenden Koeffizienten ap und aq , so gilt
lim
n→∞
⎧ ⎪ ⎪ ⎪ ⎪ ⎨
0 ap aq
, falls p einen kleineren Grad als q hat, , falls p und q gleichen Grad haben,
p(n) = a ⎪ q(n) (Vorzeichen von apq ) · ∞, ⎪ ⎪ ⎪ ⎩ falls p einen gr¨ oßeren Grad als q hat.
70
3 Folgen und Reihen
Satz 3.1.20 (wichtige Folgengrenzwerte) 310
1. F¨ ur jedes a > 0 gilt: lim na = ∞ und lim
1 a n→∞ n
n→∞
= 0.
2. F¨ ur jedes q ∈ C mit |q| < 1 gilt: lim q n = 0 n→∞
und sogar f¨ ur jedes a: lim na · q n = 0. n→∞
3. F¨ ur jedes Q > 1 gilt: lim Qn = ∞ n→∞
Qn a n→∞ n
und sogar f¨ ur jedes a: lim
= ∞.
Bemerkung 3.1.21 (Merkregel) Die Eigenschaften na · q n → 0 bei |q| < 1 und folgende Merkregel zusammen:
Qn na
→ ∞ bei Q > 1 fasst die
Exponentiell ist st¨arker als polynomiell. Beispiel 3.1.21.1 Es gilt
n 1 lim n · = 0 n→∞ 2
2n = ∞. n→∞ n3
und
lim
Satz 3.1.22 311
Es gilt
lim
n→∞
1 1+ n
n
= e.
Bemerkungen 3.1.23 zu Satz 3.1.22 1. Den Grenzwert kann man auch als Definition der eulerschen Zahl e verwenden. 2. Damit ist plausibel, dass gilt lim
n→∞
1+
x n = n
lim
n→∞
1+
x nx n
x
= ex .
Dies erm¨oglicht die Definition der Exponentialfunktion ex auch f¨ ur komplexe Argumente x ∈ C. Allerdings ist die Einf¨ uhung u ¨ber die Potenzreihe (s. Bemerkung 3.3.5, 2.) gel¨aufiger.
3.2 Reihen
71
3.2 Reihen Erinnerung 3.2.1 (Summensymbol) Zur kompakten Schreibweise von Summen nutzt man das Summensymbol: n
ak
:=
a 1 + a2 + . . . + a n .
k=1
Die Bezeichnung des Index ist dabei irrelevant:
n
ak =
k=1
Beispiel 3.2.1.1 4
n
al .
l=1
k 2 = 12 + 22 + 32 + 42 = 30.
k=1
Definition 3.2.2 (Reihen) Sei (ak )k∈N eine Folge von Zahlen. n ak die n-te Partialsumme. Dann heißt sn =
312
k=1
∞
Die Reihe
ak bezeichnet die Folge (sn )n∈N der Partialsummen.
k=1
Konvergiert diese Folge (sn )n∈N , so heißt die Reihe konvergent; das ∞ Symbol ak bezeichnet dann auch den Grenzwert. Andernfalls heißt k=1
die Reihe divergent. n→∞
Gilt sn −→ ∞, so schreibt man auch
∞
k=1
ak = ∞.
Beispiel 3.2.3 Mit ak =
1 2k
k | 1 | 2 | 3 | 4 | ... | | | | | 1 | ak || 12 || 14 || 18 || 16 | ... s1 = s2 = s3 =
a1
erh¨alt man folgende Werte:
1 2 1 2 1 2
...
+ +
1 4 1 4
= +
1 8
=
3 4 7 8
a2 1 2
0
a3 3 4
s1 s2 s3 Abb. 3.4 Folgenwerte und Partialsummen.
72
3 Folgen und Reihen
Bemerkung 3.2.4 (Reihe als Aufsummierung von Schritten) Stellt man sich die Werte ak als Folge von Schritten vor, so ist die Partialsumme die Gesamtstrecke, die nach n Schritten zur¨ uckgelegt wurde (Summe der einzelnen Schritte), s. auch Abb. 3.4. Nun bedeutet beispielsweise • Konvergenz einer Reihe, dass man zur Ruhe“ kommt, ” ∞ ak = ∞, dass die Schrittfolge ins Unendliche“ f¨ uhrt. • ” k=1 Beispiel 3.2.4.1 Sei ak = (−1)k+1 , also a1 = 1, a2 = −1, a3 = 1, a4 = −1, . . ..
Dann ist s1 = 1, s2 = 0, s3 = 1, s4 = 0, . . .. ∞ Man kommt nicht zur Ruhe“, die Reihe (−1)k+1 divergiert. ” k=0
Satz 3.2.5 (geometrische Reihe) 313
Die geometrische Reihe
∞
q k zu einem festen Wert q
k=0
314
• konvergiert f¨ ur |q| < 1 mit • divergiert f¨ ur |q| ≥ 1.
∞
qk =
k=0
F¨ ur q = 1 gilt f¨ ur die Partialsummen
n
1 , 1−q qk =
k=0
1 − q n+1 . 1−q
Bemerkung 3.2.6 zu Satz 3.2.5 Den Wert einer Partialsumme der geometrischen Reihe kann man sich durch folgenden Trick erkl¨aren: Es gilt (1 + q + q 2 + . . . + q n ) · (1 − q) = 1 + q + q 2 + . . . + q n
− q − q 2 − q 3 − . . . − q n+1
= 1 − q n+1 , also sn = 1 + q + q 2 + . . . + q n =
1 − q n+1 . 1−q
Falls |q| < 1 ist, gilt lim q n+1 = 0, so dass dann lim sn = n→∞ n→∞ dem angegebenen Reihenwert entspricht.
1 1−q
gilt, was
3.2 Reihen
73
Beispiel 3.2.7 Es ist 1 + 2
1+
2 3 ∞ k 1 1 1 1 + + ... = = 2 2 2 1 − k=0
1 2
= 2.
Beginnt die Reihe nicht mit dem nullten Summanden, kann man die fehlenden Summanden auff¨ ullen und wieder abziehen:
2 3 ∞ k ∞ k 1 1 1 1 1 + + + ... = = −1 2 2 2 2 2 k=1
315
k=0
=
1 1−
1 2
− 1 = 1.
Alternativ kann man ausklammern:
2 3
2 1 1 1 1 1 1 + · 1+ + + + ... = + ... 2 2 2 2 2 2 ∞ k 1 1 1 · · 2 = 1. = = 2 2 2 k=0
Beispiel 3.2.8 (Teleskopsumme) Sei ak = Dann ist:
1 k − (k − 1) 1 1 − = = 2 . k−1 k (k − 1) · k k −k
sn =
n
a k = a 2 + a 3 + . . . + an
k=2
=
316
1 1 − 1 2
+
1 1 − 2 3
+
1 1 − 3 4
+ ... +
1 1 − n−1 n
(die Summe schiebt sich wie ein Teleskop zusammen) 1 1 1 = − = 1− . 1 n n Also gilt lim sn = 1 und damit n→∞
Bemerkung 3.2.9
∞
1 = 1. 2−k k k=2
F¨ ur das Konvergenz- bzw. Divergenzverhalten einer Reihe ist der genaue Startindex der Summation irrelevant; man l¨ asst ihn daher oft weg und schreibt kurz ak“. ” F¨ ur den konkreten Reihenwert ist es aber wichtig, mit welchem Summanden die Summe beginnt.
74
3 Folgen und Reihen
Satz 3.2.10 (notwendige Bedingung f¨ur Reihenkonvergenz) Konvergiert die Reihe
ak , so gilt f¨ ur die Summanden lim ak = 0. k→∞
Bemerkungen 3.2.11 zur notwendigen Bedingung f¨ur Reihenkonvergenz 1. Satz 3.2.10 ist anschaulich klar: Damit die Reihe die Schritte ak immer kleiner werden.
ak konvergiert, m¨ ussen
2. Meist wird Satz 3.2.10 in der folgenden Richtung angewendet: Streben die Summanden (Schritte) ak nicht gegen 0, so konvergiert die Reihe ak nicht (man kommt nicht zur Ruhe). 3. Die Umkehrung von Satz 3.2.10 gilt nicht: Falls die Summanden gegen Null gehen, muss die Reihe nicht unbedingt konvergieren, wie die harmonische 1 1 Reihe k zeigt: Die Summanden k konvergieren gegen 0, aber die Reihe divergiert, s. Satz 3.2.12.
Satz 3.2.12 (harmonische Reihe) 317
Die harmonische Reihe
∞
k=1
318
319
1 k
divergiert:
∞
k=1
1 k
= ∞.
Bemerkung 3.2.13 (Divergenz der harmonischen Reihe) Dass die Folge der Partialsummen der harmonischen Reihe unbeschr¨ ankt ist, sieht man an der folgenden Absch¨atzung: 1 1 1 1 1 1 1 1 1 + + + + + + + + + ... + 2 3 4 5 6 7 8 9 10 1 1 1 1 1 1 1 1 1 + + ... + 1+ + + + + + + + 2 4 4 8 8 8 8 16 16 1+
≥
1 2
=
1+
1 + 2
1 2
1 2
+
1 2
1 2
+
1 2
1 + ... 16 1 +... 16
+ ...
Satz 3.2.14 (Minoranten- und Majorantenkriterium) 320
bk = ∞, so ist auch ak = ∞. ≤ bk f¨ ur alle k und die Reihe bk konvergent, so ist auch die 2. Ist |ak | Reihe ak konvergent.
1. Ist ak ≥ bk ≥ 0 f¨ ur alle k und gilt
3.2 Reihen
75
Bemerkung 3.2.15 (Veranschaulichung der Kriterien) Satz 3.2.14 ist anschaulich klar: 1. Macht man gr¨oßere Schritte als bei einer ins Unendlich gehenden Reihe, so geht man auch ins Unendliche (Minorantenkriterium). 2. Macht man kleinere Schritte als bei einer konvergenten Reihe, also bei einer Schrittfolge, bei der man zur Ruhe kommt, so kommt man auch zur Ruhe (Majorantenkriterium).
Beispiele 3.2.16 1. Konvergiert die Reihe Wegen
√1 k
√1 ? k
≥ k1 , und da nach Satz 3.2.12
2. Konvergiert die Reihe
1 k2 ?
Wegen k12 ≤ k21−k , und da die Reihe 1 folgt die Konvergenz von k2 .
1 k2 −k
1 k
= ∞ gilt, folgt
√1 k
= ∞.
konvergiert (s. Beispiel 3.2.8),
Satz 3.2.17 (konvergente/divergente Reihen) 1. Die Reihe 2. Die Reihe
1 ka
ist f¨ ur a > 1 konvergent und f¨ ur a ≤ 1 divergent.
ur |q| < 1 und jedes a konvergent. k a · q k ist f¨
3. Sind p und q zwei Polynome, so gilt: p(k) q(k)
konvergiert
⇔
der Grad von q ist um mehr als 1 gr¨ oßer als der von p.
Bemerkungen 3.2.18 zum Satz u¨ber konvergente/divergente Reihen 1. Da mit oßerer Potenz a die Summanden k1a kleiner werden, ist klar, dass, gr¨ 1 ur alle a > a0 konvergiert, und falls falls ka0 konvergiert, die Reihe auch f¨ ur alle a < a0 disie umgekehrt f¨ ur ein a0 divergiert, dass sie dann auch f¨ vergiert, es also eine genaue Grenze a0 zwischen Konvergenz und Divergenz geben muss. Da die harmonische Reihe divergiert (s. Satz 3.2.12), ist a0 ≥ 1; nach Beispiel 3.2.16, 2., ist a0 ≤ 2. Dass die Grenze genau bei 1 liegt mit Divergenz bei a = 1, ist anschaulich nicht leicht einsichtig.
2. Mit der Merkregel Exponentiell ist st¨ arker als polynomiell“ wie bei Be” ur |q| < 1 wie eine merkung 3.1.21 ist plausibel, dass die Reihe k a · q k f¨ k geometrische Reihe q konvergiert (s. Satz 3.2.5).
321
76
3 Folgen und Reihen
3. Wie Beispiel 3.2.19, 1. und 2., illustriert, kann man die dritte Aussage des Satzes aus der ersten folgern. Beschr¨ankt man sich auf Polynome, kann man auch formulieren, dass Konvergenz genau dann vorliegt, wenn der Grad des Nenners um mindestens 2 gr¨oßer als der des Z¨ahlers ist. In der Formulierung um mehr als 1“ kann man das aber auch verallgemei” √k nert anwenden auf Ausdr¨ ucke wie k2 +1 mit einem ”Grad“ von 0.5 im Z¨ahler und 2 im Nenner, s. Beispiel 3.2.19, 3.
Beispiele 3.2.19 1. Die Reihe
k2 +1 k3 +k
konvergiert nicht.
Dies kann man sich wie folgt plausibel machen: 1 2 2 +1 ≈ kk3 = k1 und F¨ ur große k ist kk3 +k k konvergiert nicht.
2. Die Reihe
k+4 k3 +1
konvergiert.
Dies kann man sich wie folgt plausibel machen: 1 k 1 F¨ ur große k ist kk+4 3 +1 ≈ k 3 = k 2 und k2 konvergiert.
√k 3. Die Reihe 2 um mehr als 1 gr¨ oßer k2 +1 konvergiert, da der Nennergrad √ 0.5 ist als der Z¨ahlergrad“ 0.5, wenn man k als k auffasst. ” Dies kann man sich wie folgt plausibel machen: √ √ 1 1 k ≈ k2k = k1.5 und F¨ ur große k ist k2 +1 k2 konvergiert.
Satz 3.2.20 (Leibniz-Kriterium) 322
Sei (ak )k∈N eine reelle monoton fallende Nullfolge. ∞ (−1)k · ak . Dann konvergiert die Reihe k=0
Bemerkung 3.2.21 zum Leibniz-Kriterium In der Situation von Satz 3.2.20 bewirkt das alternierende Vorzeichen der Summanden ein Auf und Nieder der Partialsummen: Es ist s0 = (−1)0 · a0 = a0 ,
s1 = (−1)0 · a0 + (−1)1 · a1 = a0 − a1 , s 2 = . . . = a 0 − a1 + a2 ,
u.s.w.
3.2 Reihen ak
77 sn
+
a
+
+ + + + + + +
+
+ +
an+1
+
+
+
+
+
+
n
k
Abb. 3.5 Partialsummen beim Leibniz-Kriterium.
Abb. 3.5 zeigt links eine monoton fallende Nullfolge und rechts die resultien (−1)k ·ak . Man erkennt: F¨ ur den Reihenwert renden Partialsummen sn = k=0
a und die n-te Partialsumme sn gilt: |a − sn | ≤ an+1 .
Beispiel 3.2.22 Nach dem Leibniz-Kriterium konvergiert die Reihe ∞ (−1)k+1
k=1
k
=
∞ (−1)k
k=0
k+1
= 1−
1 1 1 + − + −.... 2 3 4
(Der Reihenwert ist gleich ln 2, vgl. Satz 3.3.7.)
Satz 3.2.23 (Quotienten- und Wurzelkriterium) F¨ ur eine Reihe ak gilt: ak+1 < < 1 oder lim k |ak | 1 lim k→∞ ak > k→∞ >
323
⇒
ak ist
konvergent . divergent
Bemerkungen 3.2.24 zum Quotienten- und Wurzelkriterium 1. Sind die Grenzwerte in Satz 3.2.23 gleich 1, so ist keine Schlussfolgerung m¨oglich. 2. Das Wurzelkriterium kann man folgendermaßen herleiten: Sei a := lim k |ak | < 1 und q ∈ ]a, 1[. k→∞
Dann gilt f¨ ur alle großen k k |ak | < q ⇔ |ak | < q k . k Da die Reihe q als geometrische Reihe mit 0 < q < 1 konvergiert und k die ersten (endlich vielen) Summanden, bei denen ggf. noch nicht |ak | < q ist, f¨ ur die Konvergenz keine Rolle spielen, ist ak nach dem Majorantenkriterium (Satz 3.2.14, 2.) konvergent.
78
3 Folgen und Reihen
Beispiel 3.2.25 Sei ak = k ·
1 k 2
. Dann gilt:
(k + 1) · 1 k+1 ak+1 k 1 2 · lim = lim = lim k k→∞ k→∞ k→∞ k + 1 2 ak k· 1 2
1 < 1. = 2
Das Quotientenkriterium liefert also die Konvergenz der Reihe
k·
1 k 2
.
Dass diese Reihe konvergiert, besagte schon Satz 3.2.17, 2.; mit dem Quotientenkriterium kann man Satz 3.2.17, 2., allgemein begr¨ unden.
Satz 3.2.26 (Rechenregeln f¨ur konvergente Reihen) 324
Sind ak = a und bk = b konvergente Reihen, so gilt: 1. (ak ± bk ) = a ± b, 2. F¨ ur λ ∈ C gilt: λ · ak = λ · a.
Bemerkung 3.2.27 Ein entsprechender Satz f¨ ur Produkte gilt nicht: Im Allgemeinen ist (ak ·bk ) = a·b, was man ausgeschrieben leicht einsieht: a1 b1 + a2 b2 + a3 b3 + . . . = (a1 + a2 + a3 + . . .) · (b1 + b2 + b3 + . . .).
Definition 3.2.28 (absolute Konvergenz) Eine Reihe konvergiert.
ak heißt absolut konvergent genau dann, wenn
|ak |
Bemerkungen 3.2.29 zur absoluten Konvergenz 1. Stellt man sich eine Reihe als Aneinanderreihung von Schritten vor, so bedeutet absolute Konvergenz, dass man zur Ruhe kommt, auch wenn alle Schritte in die gleiche (positive) Richtung gehen. 2. Jede absolut konvergente Reihe ist konvergent.
3.2 Reihen
79
Satz 3.2.30 (Umordnungssatz) Ist die Reihe ak absolut konvergent, so erh¨ alt man bei jeder Umordnung der Reihe den gleichen Reihenwert.
Bemerkung 3.2.31 zum Umordnungssatz Eigentlich bemerkenswert ist, dass Satz 3.2.30 ohne absolute Konvergenz falsch wird, mehr noch: Ist die Reihe ak konvergent aber nicht absolut konvergent, so kann man durch geeignete Umordnungen jeden beliebigen Wert A als Reihenwert erhalten, s. Beispiel 3.2.32, 2.
Beispiele 3.2.32 1. Jede konvergente Reihe ak mit positiven Summanden ak ist absolut konvergent. Eine solche Reihe darf man also umordnen, ohne den Reihenwert zu ver¨andern. 2. Die alternierende Reihe ∞ (−1)k+1
k=1
k
= 1−
1 1 1 1 1 + − + − ± ... 2 3 4 5 6
ist konvergent (s. Beispiel 3.2.22) aber nicht absolut konvergent, da die Reihe ∞ (−1)k+1 ∞ 1 der Betr¨age k=1 k = k=1 k die harmonische Reihe ist, die nicht konvergiert (s. Satz 3.2.12). Durch folgende Gedanken kann man sich u ¨berlegen, dass man durch geeignete Umordnung jede beliebige Zahl A als Summenwert erreichen kann:
F¨ ur die Summe der positiven Folgenglieder gilt 1 1 1 + + + ... 3 5 7
1 1 1 1 1 1 1 1 · 1 + + + + . . . = ∞; > + + + + ... = 2 4 6 8 2 2 3 4 1+
entsprechend ist auch die Summe aller negativen Folgenglieder gleich −∞.
Nun kann man zun¨achst soviel positive Summanden nehmen, bis die Partialsumme gr¨oßer als A ist, dann soviel negative, bis die Partialsumme wieder kleiner als A ist, dann wieder positive u.s.w. Damit verbraucht man tats¨achlich alle Summanden. Da die Summanden betragsm¨ aßig immer klei¨ ner werden, werden auch die Uberund Unterschreitungen von A immer kleiner, d.h. die Folge der Partialsummen konvergiert tats¨ achlich gegen A.
325
80
3 Folgen und Reihen
3.3 Potenzreihen
Definition 3.3.1 (Potenzreihe) 326
Ein Ausdruck der Form
∞
ak xk heißt Potenzreihe.
k=0
Beispiel 3.3.2 Potenzreihen sind beispielsweise ∞
xk = 1 + x + x 2 + x3 + . . .
k=0
und ∞ 1 1 1 1 1 k x = x + x2 + x3 + x4 + . . . . k 1 2 3 4
k=1
Die erste Potenzreihe ist eine geometrische Reihe. F¨ ur |x| < 1 ergibt sich 1 (s. Satz 3.2.5). als Reihenwert 1−x
Bemerkung 3.3.3 zur Schreibweise Im vorigen Abschnitt bezeichnete ak u ¨blicherweise den k-ten Summanden. Bei einer Potenzreihe bezeichnet ak u ¨blicherweise den Vorfaktor zu xk ; der k-te Summand ist dann ak xk . Die wichtigste Potenzreihe ist die zur Exponentialfunktion. Dabei spielen die Fakult¨aten eine wichtige Rolle: 327
k! := 1 · 2 · 3 · . . . · k ( k-Fakult¨at“) ”
und
0! := 1.
Satz 3.3.4 (Exponentialreihe) 328
Die Potenzreihe zur Exponentialfunktion f (x) = ex ist e
329
x
∞ 1 1 1 1 · xk = 1 + x + x2 + x3 + x4 + . . . , = k! 2 3! 4! k=0
insbesondere ist die eulersche Zahl e =
∞
k=0
1 k! .
3.3 Potenzreihen
81
Bemerkungen 3.3.5 (Definition von e und ez ) 1. Die Darstellung e =
∞
k=0
1 k!
kann man auch als Definition der eulerschen
Zahl e verwenden. ∞ 1 k ur alle x ∈ R. In die Potenzreihe kann man 2. Die Reihe k! · x konvergiert f¨ k=0
ur z ∈ C definieren, vgl. S. 59. auch komplexe Werte einsetzen und so ez f¨
Bemerkungen 3.3.6 (Herleitung weiterer Potenzreihen) 1. Aus der Potenzreihe der e-Funktion erh¨alt man die Potenzreihen zur Sinusund Cosiuns-Funktion, denn einerseits gilt 1 1 1 1 (jx) + (jx)2 + (jx)3 + (jx)4 + . . . 1! 2! 3! 4! 1 1 2 1 3 1 4 · 1 + j x − x − j x + x + −... 1! 2! 3! 4! 1 2 1 4 1 6 · 1 − x + x − x + −... 4! 6!
2! 1 3 1 5 1 1 x − x + x − x7 + − . . . . +j 1! 3! 5! 7!
1 0! 1 = 0! 1 = 0!
ejx =
·1+
330
Andererseits gilt die Euler-Formel (s. Satz 2.3.1): ejx = cos x + j sin x. Durch Vergleich von Real- und Imagin¨arteil folgt: cos x = 1 − sin x = x −
∞ 1 1 1 2 (−1)k 2k x + x4 − x6 + − . . . = ·x , 2! 4! 6! (2k)!
1 3 1 1 x + x5 − x7 + − . . . = 3! 5! 7!
k=0 ∞
k=0
(−1)k · x2k+1 . (2k + 1)!
alt man auch die Potenzreihen zu 2. Aus der Potenzreihe der e-Funktion erh¨ den hyperbolischen Funktionen (s. Definition 1.1.64): 1 1 1 1 1 + x + x2 + x3 + . . . cosh x = ( ex + e−x ) = 2 2 2! 3!
1 1 2 + 1 − x + x − x3 + − . . . 2! 3! 1 2 1 4 = 1 + x + x + ..., 2! 4! und ¨ahnlich: sinh x =
1 x 1 1 ( e − e−x ) = x + x3 + x5 + . . . . 2 3! 5!
331
332
333
82
3 Folgen und Reihen
Satz 3.3.7 (Zusammenfassung wichtiger Potenzreihen) 334
Es gilt: e
x
∞ 1 2 1 3 1 k x , = 1 + x + x + x + ... = 2! 3! k! k=0
∞ 1 1 1 (−1)k · x2k+1 , sin x = x − x3 + x5 − x7 + − . . . = 3! 5! 7! (2k + 1)! k=0
cos x = 1 − sinh x = x +
1 2 1 1 x + x4 − x6 + − . . . = 2! 4! 6! 1 3 1 1 x + x5 + x7 + . . . = 3! 5! 7!
∞ (−1)k
(2k)!
k=0
∞
k=0
· x2k ,
1 · x2k+1 , (2k + 1)!
∞ 1 1 1 1 · x2k , cosh x = 1 + x2 + x4 + x6 + . . . = 2! 4! 6! (2k)! k=0
1 = 1 + x + x2 + x3 + . . . = 1−x
∞
xk
(|x| < 1),
k=0
∞ 1 1 1 (−1)k+1 k ·x ln(1 + x) = x − x2 + x3 − x4 + − . . . = 2 3 4 k
(|x| < 1).
k=1
Bemerkungen 3.3.8 zu Potenzreihenentwicklungen 1. Aus den angegebenen Potenzreihen kann man weitere berechnen. Beispiel 3.3.8.1 Zu f (x) =
1 1+x2
erh¨alt man
1 1 = 1 + (−x2 ) + (−x2 )2 + (−x2 )3 + . . . = 2 1+x 1 − (−x2 ) = 1 − x2 + x 4 − x 6 + − . . . .
2. Potenzreihenentwicklungen sind gute N¨aherungen f¨ ur kleine Argumente x, also beispielsweise ex ≈ 1 + x,
sin x ≈ x,
cos x ≈ 1 − 12 x2 , . . . .
3. Eine Funktion mit der Potenzreihenentwicklung
∞
ak xk ist
k=0
ungerade ⇔ es treten nur ungerade x-Potenzen auf, gerade
⇔ es treten nur gerade x-Potenzen auf.
3.3 Potenzreihen
83
Satz 3.3.9 (Konvergenzradius) Sei
∞
ak xk eine Potenzreihe.
335
k=0
Dann gibt es ein R ∈ [0, ∞], so dass gilt: ∞ < konvergent R ist die Reihe . ak x k > divergent
F¨ ur |x|
k=0
R heißt Konvergenzradius der Potenzreihe. Falls der entsprechende Grenzwert existiert (∞ eingeschlossen), gilt ak 1 . und R = lim R= k→∞ ak+1 lim k |ak | k→∞
Bemerkungen 3.3.10 zum Konvergenzradius 1. F¨ ur |x| = R kann man keine allgemeing¨ ultige Aussage treffen (s. Beispiel 3.3.11, 2.). 2. Die Zahl R heißt Konvergenzradius, da man bei Potenzreihen oft komplexe Werte x einsetzt. Die komplexen Zahlen x mit |x| < R bilden in der Gaußschen Zahlenebene einen Kreis mit Radius R um den Ursprung. 3. Satz 3.3.9 folgt aus der Anwendung des Quotienten- und Wurzelkriteriums ∞ (s. Satz 3.2.23) auf Potenzreihen: Danach erh¨ alt man bei der Reihe ak x k k=0
Konvergenz, falls ak+1 xk+1 = |x| lim ak+1 , 1 > lim k k→∞ k→∞ ak x ak also falls
|x|
lim
k→∞
also falls |x|
1. (Da die Reihe eine geometrische Reihe ist, ist das nach Satz 3.2.5 schon bekannt). 2. Bei der Reihe
∞
k=1
1 k
· xk ist ak = k1 . Dann ist
1 k k→∞ 1 k+1
R = lim
Also ist
∞
k=1
1 k
= lim
k→∞
k+1 = 1. k
· xk f¨ ur |x| < 1 konvergent, f¨ ur |x| > 1 divergent.
F¨ ur |x| = 1 gibt es unterschiedliches Konvergenzverhalten: ∞ ∞ 1 1 k x = • F¨ ur x = 1 ergibt k k die harmonische Reihe, ist also diverk=1
k=1
gent (s. Satz 3.2.12). ∞ ∞ 1 k • F¨ ur x = −1 ist kx = k=1
k=1
(−1)k k
als alternierende Reihe mit be-
tragsm¨aßig monoton fallenden Summanden, die gegen Null streben, nach dem Leibniz-Kriterium (s. Satz 3.2.20) konvergent.
3. Bei der Exponentialreihe
∞
k=0
1 k k! x
ist ak =
1 k! ,
also
1 (k + 1)! k! = lim (k + 1) = ∞, R = lim 1 = lim k→∞ k→∞ k→∞ k! (k+1)!
d.h. die Potenzreihe konvergiert f¨ ur jedes x. ¨ Ahnlich kann man sich u ¨berlegen, dass die Potenzreihen zur Sinus-, Cosinusund den hyperbolischen Funktion einen unendlichen Konvergenzradius haben.
4
Grenzwerte bei Funktionen und Stetigkeit
Die exakte Definition von Grenzwerten ist f¨ ur theoretische Untersuchungen unerl¨asslich. In vielen praktischen F¨allen reicht aber ein intuitiver Grenzwertbegriff aus. Ebenso ist die Betrachtung der Stetigkeit eher f¨ ur theoretische als f¨ ur ¨ praktische Uberlegungen relevant. Dieses Kapitel liefert die n¨ otigen Grundbegriffe zum Verst¨andnis, ist dar¨ uber hinaus aber bewusst recht knapp gehalten.
4.1 Grenzwerte f (x)
Die Funktion in Abb. 4.1 zeigt an der Stelle x0 ein gutm¨ utiges Verhalten im Gegensatz zu den ≈ ∼ Stellen x0 und x0 : N¨ahern sich die Werte x der ahern sich die Funktionswerte f (x) Stelle x0 , so n¨ dem Wert y0 = f (x0 ).
y0
∼
≈
x 0 x0 x0 x Abb. 4.1 Verschiedenes Funktionsverhalten.
1 2 3
Definition 4.1.1 (Grenzwerte bei Funktionen) Die Funktion f (x) konvergiert f¨ ur x gegen x0 gegen Grenzwert y0 , Schreibweise lim f (x) = y0 , x→x0
n→∞
:⇔
F¨ ur jede Folge (xn )n∈N mit xn −→ x0 und xn = x0 gilt n→∞ f (xn ) −→ y0 .1
Falls nur Folgen xn > x0 bzw. xn < x0 zugelassen sind2 , so schreibt man lim f (x) bzw. lim f (x). x→x0 +
x→x0 −
3
Ggf. ist auch x0 = ±∞ bzw. y0 = ±∞ zugelassen. 1 Ist D der Definitionsbereich von f , so muss nicht unbedingt x ∈ D sein, aber es muss 0 Folgen (xn )n∈N mit xn ∈ D, xn = x0 und xn → x0 geben. 2 Voraussetzung ist ein reeller Definitionsbereich 3 Voraussetzung ist ein reeller Definitions- bzw. Zielbereich
© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 G. Hoever, Höhere Mathematik kompakt, https://doi.org/10.1007/978-3-662-62080-9_4
85
400
86
4 Grenzwerte bei Funktionen und Stetigkeit
Bemerkung 4.1.2 (Schreibweise einseitiger Grenzwerte) Statt lim f (x) schreibt man auch lim f (x) oder lim f (x), entsprechend x→x0 +
statt
x↓x0
xx0
lim f (x) auch lim f (x) oder lim f (x).
x→x0 −
x↑x0
x x0
Beispiel 4.1.3
f (x) f (xn )
Sei f (x) = x2 und x0 = 2. 401
ur jede Dann ist lim f (x) = 4, denn f¨ x→2
Folge (xn ) mit xn → 2 gilt
x
n→∞
f (xn ) = x2n −→ 4.
xn Abb. 4.2 Folgen xn und f (xn ).
Beispiel 4.1.4 (Heaviside-Funktion) H(x) 1
Sei H : R → R, x →
0, falls x ≤ 0, 1, falls x > 0.
x Abb. 4.3 Heaviside Funktion.
Der Grenzwert lim H(x) existiert nicht, denn beispielsweise erh¨ alt man zu x→0
n
n→∞
der Folge xn = (−1) ullt, als Folge der Funktionswerte n , die xn −→ 0 erf¨ f (xn ) n∈N = (0, 1, 0, 1, 0, . . .),
die offensichtlich keinen Grenzwert besitzt. Beschr¨ ankt man sich auf Folgen mit nur positiven bzw. nur negativen Werten, sind die Funktionswerte immer 1 bzw. 0, d.h., die einseitigen Grenzwerte existieren: lim H(x) = 1
x→0+
und
lim H(x) = 0.
x→0−
Bemerkungen 4.1.5 (einseitige Grenzwerte) 1. Existiert der Grenzwert lim f (x), so existieren auch die einseitigen Grenzx→x0
werte lim f (x) und lim f (x) und haben den gleichen Wert. x→x0 +
x→x0 −
Dies gilt auch umgekehrt: Existieren die einseitigen Grenzwerte und haben den gleichen Wert, so folgt die Existenz des Grenzwerts x → x0 mit entsprechendem Wert. 2. Existieren die Grenzwerte lim f (x) und lim f (x), aber sind die Werte x→x0 +
x→x0 −
unterschiedlich, so spricht man von einer Sprungstelle von f (s. das Verhal∼ ten bei x0 in Abb. 4.1 und bei 0 in Beispiel 4.1.4).
4.1 Grenzwerte
87
Satz 4.1.6 (ε-δ-Kriterium) Es gilt
402
lim f (x) = y0 ⇔
x→x0
F¨ ur jedes ε > 0 gibt es ein δ > 0, so dass gilt: F¨ ur x = x0 mit |x − x0 | < δ gilt |f (x) − y0 | < ε.
Bemerkungen 4.1.7 zum ε-δ-Kriterium 1. Das ε-δ-Kriterium wird manchmal auch als Definition des Grenzwerts genutzt. 2. W¨ahrend die Grenzwertcharakterisierung durch Folgen wie in Definition 4.1.1 eher eine dynamische Sichtweise beschreibt ( wenn sich xn dem Wert x0 n¨ahert, so ” n¨ahert sich f (xn ) dem Wert y0“), ist die Charakterisierung mit dem ε-δ-Kriterium eher eine statische Sicht: Wenn x nahe bei x0 ist, ist f (x) nahe bei y0 .
f (x) y0
ε ε
x
δ δ x0 Abb. 4.4 ε-δ-Kriterium.
Bemerkungen 4.1.8 (Grenzwerte bei Definitionsl¨ucken) 1. Die Stelle x0 muss nicht im Definitionsbereich der Funktion f liegen, wohl aber die Stellen xn . Beispiel 4.1.8.1 Sei f : R \ {0} → R, x →
sin x x .
F¨ ur lim f (x) betrachtet man Folgen (xn )n∈N mit xn = 0 und xn → 0. x→0
Mit Hilfe der Potenzreihenentwicklung von sin x (s. Satz 3.3.7) gilt: x− sin x = x
1 3 3! x
+
1 5 5! x
−
1 7 7! x
+ −...
x 1 4 1 1 2 = 1 − x + x − x6 + − . . . . 3! 5! 7!
Damit ist plausibel, dass gilt: lim
x→0
1 1 1 sin x = lim 1 − x2 + x4 − x6 + − . . . = 1. x→0 x 3! 5! 7!
Die Funktion
f : R → R,
x →
sin x x ,
1,
falls x = 0, falls x = 0,
heißt auch si- oder sinc-Funktion (s. Abb. 4.5).
403
88
4 Grenzwerte bei Funktionen und Stetigkeit sin x x
1
π
−π
−2π
2π
x
Abb. 4.5 Die sinc-Funktion.
2. Bei einer Rechnung wie in Beispiel 4.1.8.1 werden eigentlich zwei Grenzprozesse vertauscht: die Reihenberechnung als Grenzwert von Partialsummen und der Limes x → 0. Im Allgemeinen ist eine solche Vertauschung von Grenzprozessen nicht ohne weiteres m¨ oglich. Die Anwendung im Zusammenhang mit Potenzreihen wie bei Beispiel 4.1.8.1 ist aber erlaubt. Es gelten ¨ahnliche Regeln wie bei Folgen (vgl. Satz 3.1.12 sowie S¨ atze 3.1.19 und 3.1.20)
Satz 4.1.9 (Rechenregeln f¨ur Grenzwerte) Sind f und g Funktionen mit den Grenzwerten lim f (x) = a und
404
x→x0
lim g(x) = b, so gilt:
x→x0
lim (f (x) ± g(x)) = a ± b,
x→x0
lim (f (x) · g(x)) = a · b,
x→x0
lim
x→x0
f (x) g(x)
=
a , b
falls b = 0 ist.
1
Satz 4.1.10 (wichtige Grenzwerte) 1. Sind p und q Polynome mit f¨ uhrenden Koeffizienten ap und aq , so gilt 405
lim
x→∞
406
⎧ ⎪ ⎪ ⎪ ⎪ ⎨
0 ap aq
, falls p einen kleineren Grad als q hat, , falls p und q gleichen Grad haben,
p(x) = a ⎪ q(x) (Vorzeichen von apq ) · ∞, ⎪ ⎪ ⎪ ⎩ falls p einen gr¨ oßeren Grad als q hat.
x 2. F¨ ur Q > 1 und jedes1 a gilt lim Q lim Qx xa = 0, a = ∞ und x x→−∞ x→∞ x a f¨ ur |q| < 1 und jedes a gilt lim q x = 0. x→∞
ln x a x→∞ x
3. F¨ ur jedes a > 0 gilt lim
1
= 0 und lim
x→0+
xa · ln x = 0.
Damit beim zweiten Grenzwert (x → −∞) xa definiert ist, muss a ganzzahlig sein.
4.2 Stetigkeit
89
Bemerkung 4.1.11 (Merkregel) Die Eigenschaften 2. und 3. von Satz 4.1.10 fasst die folgende Merkregel zusammen (vgl. Bemerkung 3.1.21) Exponentiell ist st¨arker als polynomiell, logarithmisch ist schw¨acher als polynomiell. Beispiel 4.1.11.1 x3 lim x = lim x→∞ x→∞ 2
x 1 x3 = 0. 2
Bemerkungen 4.1.12 zu Grenzwerten 1. Satz 4.1.10, 1., kann man sich wie bei Folgen (s. Bemerkung 3.1.14) durch Ausklammern und K¨ urzen der h¨ochsten Potenz erkl¨ aren. Beispiel 4.1.12.1
x2 2 + x12 2 + x12 2+0 2x2 + 1 = lim 2 = 2. lim 2 = = lim x→∞ 1 + 1 x→∞ x + x x→∞ x 1 +0 1 + x1 x
2. Grenzwerte x → −∞ kann man zu Grenzwerten x → ∞ umwandeln. Beispiel 4.1.12.2 x 2
lim 2 x
x→−∞
−x
= lim 2 x→∞
(−x)
2
x 1 = lim x2 = 0. x→∞ 2
3. Bei gebrochen rationalen Funktionen h¨ angt bei uneigentlicher Konvergenz f¨ ur x → −∞ das Vorzeichen auch von den Graden des Z¨ ahler- und Nennerpolynoms ab. Beispiel 4.1.12.3 x4 + 1 (−x)4 + 1 x4 + 1 = lim = lim = −∞. x→−∞ x3 + x x→∞ (−x)3 + (−x) x→∞ −x3 − x lim
4.2 Stetigkeit
Definition 4.2.1 (Stetigkeit) Sei f eine Funktion mit Definitionsbereich D. f heißt stetig an der Stelle x0 ∈ D :⇔
407
lim f (x) = f (x0 ).
x→x0
f heißt stetig (in D) :⇔ f ist stetig an allen Stellen x0 ∈ D.
90
4 Grenzwerte bei Funktionen und Stetigkeit
Beispiele 4.2.2 1. Die Heaviside-Funktion H : R → R, x →
H(x) 1
0, falls x ≤ 0, 1, falls x > 0.
x Abb. 4.6 Heaviside Funktion.
ist nicht stetig, denn H ist nicht stetig an der Stelle 0 (s. Beispiel 4.1.4). Sie ist aber stetig an allen Stellen x0 = 0. |x|
2. Die Betragsfunktion f : R → R, x → |x| ist stetig.
x Abb. 4.7 Betragsfunktion.
3. Die Funktion f : R \ {0} → R, x →
f (x)
1 x x
ist stetig, denn sie ist stetig an jeder Stelle x ihres Definitionsbereichs R \ {0}.
Abb. 4.8 Stetige Funktion.
Satz 4.2.3 1. Die elementaren Funktionen (Polynome, Exponential-, Wurzel-, trigonometrische Funktionen, . . .) sind stetig. 2. Mit den Funktionen f und g sind (falls definiert) auch f ± g, f · g, und f ◦ g stetig.
f g
Stetigkeit bedeutet anschaulich, dass man den Funktionsgraf innerhalb von Intervallen ohne abzusetzen anst¨andig zeichnen kann. Gibt es dann einen Funktionswert kleiner Null und einen gr¨oßer Null, so muss der Funktionsgraf dazwischen die x-Achse schneiden, also eine Nullstelle haben:
Satz 4.2.4 (Nullstellensatz) 408
Sei f : [a, b] → R eine stetige Funktion. Haben f (a) und f (b) unterschiedliche Vorzeichen, so gibt es eine Stelle x ∈ [a, b] mit f (x) = 0.
4.2 Stetigkeit
91
Bemerkungen 4.2.5 (zu den Voraussetzungen des Nullstellensatzes) 1. Die Voraussetzung Haben f (a) und f (b) unterschiedliche Vorzeichen“ kann ” auch formuliert werden als f (a) · f (b) < 0“. ” 2. Abb. 4.9 zeigt, dass die Voraussetzung der Stetigkeit f¨ ur Satz 4.2.4 essenziell ist. f (b)
y
f (b) a
x
b
f (a)
y
a
x
b
f (a) Abb. 4.9 Stetige Funktion und Funktion mit Sprung.
Bemerkung 4.2.6 (Bisektions-/ Intervallhalbierungsverfahren) Hat man Stellen a und b, an denen eine im Intervall [a, b] stetige Funktion f unterschiedliche Vorzeichen besitzt, so kann man eine Nullstelle von f schrittweise beliebig genau einschachteln: Man berechnet den Funktionswert f ( a+b 2 ) am Intervallmittelpunkt und w¨ahlt dann die Intervallh¨alfte aus, die an den R¨ andern weiterhin Funktionswerte mit unterschiedlichen Vorzeichen besitzt (vgl. Abb. 4.10). Ist beispielsweise f (a) < 0 und f (b) > 0 (s. Abb. 4.10 links), so gilt: ≥ 0, so liegt eine Nullstelle in a, a+b Ist f a+b 2 2 , < 0, so liegt eine Nullstelle in a+b ist f a+b 2 2 ,b .
Ist umgekehrt f (a) > 0 und f (b) < 0 (s. Abb. 4.10 rechts), so muss man die jeweils andere Intervallh¨alfte nehmen. Vom neuen Intervall betrachtet man wieder die Intervallmitte u.s.w.; eine Iteration f¨ uhrt so zu immer besseren Einschachtelungen einer Nullstelle. Dieses Verfahren heißt Bisektions- oder Intervallhalbierungsverfahren. Es ist dabei allerdings nicht ausgeschlossen, dass im Intervall [a, b] noch weitere Nullstellen liegen, s. Abb. 4.10 links. y
y
a
a+b 2
b x
a
a+b 2
b x
Abb. 4.10 Bisektionsverfahren.
409
92
4 Grenzwerte bei Funktionen und Stetigkeit
Beispiel 4.2.6.1 Sei f (x) = x3 + x − 1. Dann ist f (0) = −1 < 0 und f (1) = 1 > 0. Also gibt es eine Nullstelle in [0, 1].
Wegen f (0.5) = −0.375 < 0 gibt es eine Nullstelle in [0.5, 1].
Wegen f (0.75) ≈ 0.172 > 0 gibt es eine Nullstelle in [0.5, 0.75]. f (x)
f (x)
1
f (x)
1
1 −1
Lage einer Nullstelle
x
1
1
−1
x
Lage einer Nullstelle
−1
1
x
Lage einer Nullstelle
Abb. 4.11 Informationen u ¨ ber Funktionswerte von f und die Lage einer Nullstelle.
Bemerkung 4.2.7 zum Bisektionsverfahren Jedes Aufl¨osen von Gleichungen kann man durch entsprechende Umformung als Nullstellenproblem auffassen: f (x) = g(x)
⇔
h(x) := f (x) − g(x) = 0.
Hat man Stellen a und b, an denen die Funktion h unterschiedliches Vorzeichen besitzt, und ist h stetig zwischen a und b, so kann man das Bisektionsverfahren auf h anwenden, um eine Nullstelle und damit eine L¨ osung der urspr¨ unglichen Gleichung zu bestimmen. Beispiel 4.2.7.1 Gesucht ist eine L¨osung der Gleichung x · ex = 1. Es gilt x
⇔
x· e = 1 x · ex − 1 = 0.
Die Funktion h(x) = x · ex − 1 ist stetig mit h(0) = −1 < 0 und h(1) = 1 · e − 1 > 0, so dass es eine Nullstelle von h zwischen 0 und 1 gibt. Abbildung 4.12 zeigt eine Tabelle, wie durch Bisektion die L¨osung bis auf 3 Nachkommastellen eingeschachtelt wird.
Wert von h am Intervallmittelpunkt
Nullstelle in
h(0.5) < 0 h(0.75) > 0 h(0.625) > 0 h(0.5625) < 0 h(0.5938) > 0 h(0.5781) > 0 h(0.5703) > 0 h(0.5664) < 0 h(0.5684) > 0 h(0.5674) > 0
[0, 1] [0.5, 1] [0.5, 0.75] [0.5, 0.625] [0.5625, 0.625] [0.5625, 0.5938] [0.5625, 0.5781] [0.5625, 0.5703] [0.5664, 0.5703] [0.5664, 0.5684] [0.5664, 0.5674]
Abb. 4.12 Werte bei der Bisektion (auf 4 Stellen gerundet).
Man kann das Bisektionsverfahren indirekt auch auf die urspr¨ ungliche Gleichung f (x) = g(x) anwenden, indem man betrachtet, ob die linke Seite gr¨oßer oder kleiner der rechten ist.
5
Differenzialrechnung
Die Differenzialrechnung und Ableitungen sind zentrale Werkzeuge der H¨ oheren Mathematik. Der erste Abschnitt dient dem Verst¨ andnis von Ableitungen. Im zweiten Abschnitt werden Rechenregeln bereitgestellt, mit denen dann jede aus elementaren Funktionen zusammengestellte Funktion abgeleitet werden kann. Schließlich werden verschiedene Anwendungen vorgestellt. Der Fokus in diesem Kapitel liegt auf reellen Funktionen, also Funktionen f : D → R mit D ⊆ R. Allerdings kann das meiste auch komplex“ gelesen werden. ”
5.1 Differenzierbare Funktionen Einfu ¨ hrung 5.1.1 Die Steigung m einer Geraden g kann man bestimmen durch m =
g(y) − g(x) . y−x
g(y) 500
g(x) x
y
Abb. 5.1 Steigung.
501
Nun soll die Steigung einer beliebigen Kurve an einer Stelle x0 bestimmt werden. Diese Steigung entspricht der Steigung der Tangente an die Funktion in x0 , die man wiederum ann¨ahern kann durch die Steigung einer Sekanten durch x0 und eine andere Stelle x = x0 , d.h. einer Geraden durch (x0 , f (x0 )) und (x, f (x)). (s. Abb. 5.2). Die Steigung dieser Sekante ist
f (x) f (x0 ) x0
x
Abb. 5.2 Tangentensteigung als Grenzwert von Sekantensteigungen.
f (x) − f (x0 ) . x − x0 F¨ ur x → x0 n¨ahert sich dieser Wert (hoffentlich) immer mehr der Tangentensteigung an. © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 G. Hoever, Höhere Mathematik kompakt, https://doi.org/10.1007/978-3-662-62080-9_5
93
94
5 Differenzialrechnung
Definition 5.1.2 (Differenzierbarkeit und Ableitung) Sei f eine Funktion mit Definitionsbereich D und x0 ∈ D. Die Funktion f heißt differenzierbar in x0 :⇔ lim
x→x0
f (x) − f (x0 ) x − x0
x=x0 +h
=
f (x0 + h) − f (x0 ) existiert. h→0 h lim
In diesem Fall wird der Grenzwert mit f (x0 ) bezeichnet (Ableitung). Die Funktion f heißt differenzierbar (in D) :⇔ f ist differenzierbar in jedem x0 ∈ D.
502
Die Funktion x → f (x) heißt dann Ableitung f von f . Der Ausdruck
f (x)−f (x0 ) x−x0
=
f (x0 +h)−f (x0 ) h
heißt Differenzenquotient.
Bemerkungen 5.1.3 1. Andere Schreibweisen f¨ ur die Ableitung sind
df dx (x)
und
d dx f (x).
2. Da die Ableitung die Steigung einer Funktion angibt, kann man aus dem Verlauf des Funktionsgrafen einer Funktion den qualitativen Verlauf der Ableitung ablesen. 503
3. Eine differenzierbare Funktion C → C nennt man auch holomorph. 504
Beispiele 5.1.4 1. F¨ ur eine lineare Funktion f (x) = mx + a mit festen Werten a und m ist
505
lim
x→x0
f (x) − f (x0 ) = x − x0
mx + a − (mx0 + a) x→x0 x − x0 m(x − x0 ) = lim = m. x→x0 x − x0 lim
2. F¨ ur f (x) = x2 erh¨alt man (x0 + h)2 − x20 f (x0 + h) − f (x0 ) = lim h→0 h→0 h h 2 x + 2x0 h + h2 − x20 = lim 0 h→0 h = lim (2x0 + h) = 2x0 . lim
h→0
Also ist f (x) = x2 differenzierbar mit f (x) = 2x.
5.1 Differenzierbare Funktionen
95
3. Man kann zeigen, dass die Exponential- und Winkelfunktionen differenzierbar sind mit x = ex , (sin x) = cos x und (cos x) = − sin x. e 4. Im Alltag begegnet man der Ableitung in Form der Geschwindigkeit:
Ist s(t) der zur¨ uckgelegte Weg zur Zeit t, so ist die Durchschnittsgeschwindigkeit gleich der Wegdifferenz dividiert durch die Zeitdifferenz, also gleich dem Differenzenquotienten s(t2 ) − s(t1 ) ; t2 − t1 die Ableitung s (t) entspricht der Momentangeschwindigkeit. Bei zeitabh¨angigen Funktionen schreibt man h¨ aufig auch s˙ statt s . Anschaulich bedeutet die Aussage f ist differenzierbar in x0“, dass die Funk” ahert tion f in der N¨ahe der Stelle x0 durch eine Gerade (Tangente) angen¨ werden kann.
Satz 5.1.5 (Tangentengleichung) Ist die Funktion f differenzierbar an der Stelle x0 , so wird die Tangente t zu f in x0 beschrieben durch
506
t(x) = f (x0 ) + f (x0 ) · (x − x0 ).
Bemerkung 5.1.6 zur Tangentengleichung Da die Tangente durch den Punkt (x0 , f (x0 )) verl¨ auft und die Ableitung f (x0 ) die Steigung beschreibt, folgt Satz 5.1.5 direkt aus der PunktSteigungs-Formel (Satz 1.1.6).
Beispiel 5.1.7 Sei f (x) = x2 und x0 = 1. Nach Beispiel 5.1.4, 2., ist f (x) = 2x, konkret also f (1) = 2. Damit lautet die Tangentengleichung g(x) = 1 + 2(x − 1) = 2x − 1.
y
g
f (1)
1
x
Abb. 5.3 Tangente.
96
5 Differenzialrechnung
Bemerkung 5.1.8 (Stetigkeit und Differenzierbarkeit) Jede differenzierbare Funktion ist stetig. 507
Denn existiert die Ableitung, also der Grenzwert lim
x→x0
f (x) − f (x0 ) , x − x0
ahler f¨ ur so muss — da der Nenner f¨ ur x → x0 gegen 0 strebt — auch der Z¨ x → x0 gegen 0 streben, also lim f (x) = f (x0 ).
x→x0
Die Umkehrung gilt aber nicht: Es gibt stetige Funktionen, die nicht differenzierbar sind. Differenzierbarkeit bedeutet anschaulich, dass der Funktionsgraf keinen Knick hat; eine Funktion mit Knickstellen ist an diesen Stellen nicht differenzierbar. Beispiel 5.1.8.1 Sei f : R → R, x → |x|.
|x|
Die Funktion f ist stetig in R, also insbesondere in x0 = 0. Es gilt aber +1, falls x > 0 |x| f (x) − f (0) = = , x−0 x −1, falls x < 0
so dass der Grenzwert lim
x→0
f (x)−f (0) x−0
f
x Abb. 5.4 Betragsfunktion.
nicht existiert.
Also ist f in 0 nicht differenzierbar.
Bemerkung 5.1.9 (Ableitung und N¨aherungen) F¨ ur kleine Werte h ist 508
f (x0 ) ≈
f (x0 + h) − f (x0 ) . h
(1)
Dies kann man zur numerischen Berechnung der Ableitung f nutzen. Ferner folgt aus (1)
⇔
f (x0 + h) − f (x0 ) f (x0 + h)
≈ ≈
f (x0 ) · h f (x0 ) + f (x0 ) · h,
(2) (3)
¨ d.h., bei bekannter Ableitung kann man Anderungen der Funktion f mit Hilfe der Ableitung f approximieren.
5.1 Differenzierbare Funktionen
97
ur x nahe x0 Bei x = x0 + h, also h = x − x0 , lauten diese Formeln f¨
⇔ ⇔
f (x0 )
≈
f (x) − f (x0 ) f (x)
≈
≈
f (x) − f (x0 ) x − x0 f (x0 ) · (x − x0 ) f (x0 ) + f (x0 ) · (x − x0 ).
(1 ) (2 ) (3 )
Die Gleichung (2 ) kann man auch kurz ausdr¨ ucken als Δf
≈
f (x0 ) ·
Δx.
uckt aus, dass die Tangente (s. Satz 5.1.5) eine ApproDie Gleichung (3 ) dr¨ ximation zu f ist. Die Ableitung einer Funktion ist selbst eine Funktion, die man wieder ableiten kann:
Definition 5.1.10 (h¨ohere Ableitungen) Die Funktion f sei differenzierbar im Definitionsbereich D und x0 ∈ D.
Ist f differenzierbar (in x0 ), so heißt f 2-mal differenzierbar (in x0 ); man schreibt f (x0 ) := (f ) (x0 ). Entsprechend spricht man von 3-mal, . . . , n-mal differenzierbar. Die n-te Ableitung wird auch mit f (n) bezeichnet, speziell f (2) = f ,
f (1) = f ,
f (0) = f.
Existiert die n-te Ableitung und ist stetig, so nennt man f n-mal stetig differenzierbar.
Beispiele 5.1.11 1. Sei f (x) = x2 . Nach Beispiel 5.1.4, 2., ist f (x) = 2x. Nach Beispiel 5.1.4, 1., ist f als lineare Funktion differenzierbar mit f (x) = (f ) (x) = (2x) = 2. 2. Im Alltag begegnet man der zweiten Ableitung in Form der Beschleunigung: Ist s(t) der zur¨ uckgelegte Weg zur Zeit t, so ist s (t) die Geschwindigkeit, ¨ und die Anderung der Geschwindigkeit, also s (t), ist die Beschleunigung (auch s¨ geschrieben).
509
98
5 Differenzialrechnung
5.2 Rechenregeln
Satz 5.2.1 (Ableitungsregeln) 510
Sind f und g differenzierbare Funktionen, so sind auch die Funktionen f ± g, f · g, λ · f (mit λ ∈ R konstant) und, falls g = 0 ist, fg differenzierbar mit:
511
1. 2. 3.
512
4.
(f ± g) = f ± g , (λ · f ) = λ · f ,
(f · g) = f · g + f · g
f f · g − f · g = g g2
1 −g speziell: = . g g2
(Produktregel), (Quotientenregel),
Beispiele 5.2.2 Mit Hilfe der in Beispiel 5.1.4 genannten Ableitungen erh¨ alt man unter Anwendung von Satz 5.2.1 1. (1 + x2 ) = (1) + (x2 ) = 0 + 2x = 2x, 2. (3 · sin x) = 3 · (sin x) = 3 · cos x, 3. (x · sin x) = (x) · sin x + x · (sin x) = 1 · sin x + x · cos x,
sin x 4. (tan x) = cos x
(sin x) · cos x − sin x · (cos x) cos2 x cos2 x + sin2 x cos x · cos x − sin x · (− sin x) = . = cos2 x cos2 x Diesen Ausdruck kann man in zweierlei Arten vereinfachen: Einerseits kann man den Z¨ahler wegen des trigonometrischen Pythagoras (s. Satz 1.1.55, 2.) zu 1 umformen, andererseits kann man den Bruch aufspalten. Damit erh¨ alt man =
(tan x) =
5.
1 1 + x2
=
1 = 1 + tan2 x. cos2 x −(1 + x2 ) −2x = . 2 2 (1 + x ) (1 + x2 )2
5.2 Rechenregeln
99
Bemerkung 5.2.3 (Veranschaulichung der Produktregel) ⎭ ⎫ ⎬
g
} ⎫ ⎪ ⎪ ⎪ ⎬
Δ(f · g) = Δf · g + f · Δg + Δf · Δg.
Δg
⎪ ⎪ ⎪ ⎭
Ein Rechteck mit den Seitenl¨angen f und g ¨ besitzt den Fl¨acheninhalt f · g. Die Anderung ¨ Δ(f · g) dieses Fl¨acheninhalts bei Anderung der Seitenl¨ angen um Δf bzw. Δg ist
}
Die Produktregel kann man sich entsprechend Abb. 5.5 verbildlichen:
f
Δf
Abb. 5.5 Zur Produktregel.
¨ Bei kleinen Anderungen ist Δf · Δg gegen¨ uber den anderen Termen vernachl¨assigbar und man erh¨alt Δ(f · g) ≈ Δf · g + f · Δg.
Bemerkungen 5.2.4 (Zusammenhang der Ableitungsregeln) 1. Die Regel (λ · f ) = λ · f erh¨alt man als Spezialfall der Produktregel: Ist alt man mit der Produktregel h(x) = λ konstant, also h (x) = 0, so erh¨ (λ · f ) = (h · f ) = h · f + h · f = 0 · f + λ · f = λ · f . alt man aus der Quotientenregel mit f (x) = 1 2. Den Spezialfall g1 = −g g 2 erh¨ unter Beachtung von f (x) = 0:
1 · g − 1 · g 0 · g − g −g 1 = = = . 2 2 g g g g2
Umgekehrt ergibt sich die Quotientenregel aus dem Spezialfall und der Produktregel:
f 1 = f· g g
Produkt1 1 = f · + f · g g regel spez.
= Quot.-regel
=
f ·
−g 1 +f · 2 g g
f · g f · g f · g − f · g − = . g2 g2 g2
100
5 Differenzialrechnung
Satz 5.2.5 (Kettenregel) 513
Die Verkettung differenzierbarer Funktionen f und g ist wieder differenzierbar mit (g ◦ f ) (x) =
g (f (x))
·
f (x).
außere Ableitung innere Ableitung ¨
Bemerkung 5.2.6 (Plausibilisierung der Kettenregel) Die G¨ ultigkeit der Kettenregel kann man sich auf folgende Weise plausibilisieren: Ist h = g ◦ f , so erh¨alt man mit y = f (x) h(x) = g(f (x)) = g(y). F¨ ur Funktionswert-Differenzen an einer Stelle x0 bzw. y0 = f (x0 ) gilt dann mit Hilfe der Ableitung nach Bemerkung 5.1.9 Δh ≈ g (y0 ) · Δy
und
Δy ≈ f (x0 ) · Δx,
also Δh ≈ g (y0 ) · f (x0 ) · Δx = g (f (x0 )) · f (x0 ) · Δx. ¨ von h = g ◦ f an. Also gibt g (f (x0 )) · f (x0 ) die Anderungsrate
Beispiele 5.2.7 1. Sei f (x) = x2 und g(x) = sin x. Damit ist: (sin(x2 )) = (g ◦ f (x)) = g (f (x)) · f (x) = cos(x2 ) · 2x. 2. Sei 514
f (x) =
x . (1 + 3x)2
Bei der Quotientenregel braucht man die Ableitung des Nenners. Man k¨ onnte den Nenner ausquadrieren und das resultierende Polynom summandenweise ableiten. Geschickter ist aber die Anwendung der Kettenregel: ((1 + 3x)2 ) = 2 · (1 + 3x) · 3 = 6 · (1 + 3x). Damit kann man nach Anwendung der Quotientenregel den Faktor (1 + 3x) im Z¨ahler ausklammern und anschließend k¨ urzen:
5.2 Rechenregeln
101
x (1 + 3x)2
1 · (1 + 3x)2 − x · 6 · (1 + 3x) [(1 + 3x)2 ]2 (1 + 3x) · (1 + 3x) − 6x 1 − 3x = = . 4 (1 + 3x) (1 + 3x)3
=
Die M¨oglichkeit zu k¨ urzen h¨atte man nicht so leicht gesehen, wenn man den Nenner in ausquadrierter Form abgeleitet h¨ atte. Dies gilt allgemein: Bei einem Bruch mit einer Potenz im Nenner kann man nach Anwendung der Quotientenregel so k¨ urzen, dass sich die Potenz im Nenner nur um Eins erh¨oht. 3. Sei f (x) = cx mit einem festen Wert c und g(x) = ex . Dann ist (g ◦ f )(x) = ecx , und mit f (x) = c und g (x) = ex erh¨ alt man
ecx
= (g ◦ f ) (x) = g (f (x)) · f (x) = ecx · c.
515
(∗)
Folgerungen 5.2.7.1 1) Die Gleichung (∗) gilt auch f¨ ur komplexe Werte. Speziell f¨ ur c = j ergibt jx jx sich e = j· e . Mit der Euler-Formel (Satz 2.3.1) erh¨ alt man dadurch
ejx
= j · ejx = j(cos x + j sin x) = j cos x − sin x.
Anderseits ist ejx = (cos x + j sin x) = (cos x) + j(sin x) .
Der Vergleich von Real- und Imagin¨arteil bei reellem x ergibt (cos x) = − sin x
und
(sin x) = cos x.
x 2) F¨ ur a > 0 ist ax = eln a = e(ln a)·x , also
(ax ) = ( e(ln a)·x ) = e(ln a)·x · ln a = ax · ln a.
4. Es ist x = eln x . Ableiten auf beiden Seiten liefert 1 = eln x · (ln x) = x · (ln x) . Also gilt (ln x) =
1 . x
Folgerungen 5.2.7.2 1) Speziell an der Stelle x0 = 1 hat also die ln-Funktion den Ableitungswert 1 1 = 1. Betrachtet man diesen Wert als Grenzwert des Differenzenquotienten mit h = n1 , erh¨alt man
516
102
5 Differenzialrechnung
1 =
lim
n→∞
ln(1 + n1 ) − ln 1 1 n
.
Wegen ln 1 = 0 erh¨alt man durch Aufl¨ osen des Doppelbruchs und mit der Logarithmus-Regel Satz 1.3.9, 4., ln(1 + n1 ) − ln 1 1 n
= n · ln(1 +
1 1 ) = ln (1 + )n , n n
also 1 = lim ln (1 + n1 )n . Wegen ln e = 1 ist damit lim (1 + n1 )n = e n→∞ n→∞ plausibel, s. Satz 3.1.22. 2) Mit der Ableitung der Logarithmus-Funktion kann man das Wachstum der Partialsummen der harmonischen Reihe (s. Satz 3.2.12) plausibilisieren: 517
Mit der N¨aherungsformel f (x0 + h) − f (x0 ) ≈ f (x0 ) · h erh¨alt man f¨ ur f (x) = ln x, h = 1 und x0 = k: ln(k + 1) − ln(k) ≈
1 k
und damit als Teleskopsumme
1 +
+
+
++
+
++ +++
++++
+++
n 1 Abb. 5.6 Partialsummen der harmonischen Reihe (+) und Funktion ln(x + 1) (durchgezogen).
n n 1 ≈ ln(k + 1) − ln(k) k k=1 k=1 = ln(2) − ln(1) + ln(3) − ln(2) + . . . + ln(n + 1) − ln(n)
= − ln(1)
+
ln(n + 1) = ln(n + 1).
Die Partialsummen der harmonischen Reihe wachsen also ungef¨ ahr so wie die Funktion ln(n + 1), s. Abb. 5.6.
Satz 5.2.8 (Ableitung der Umkehrfunktion) 518
Ist f umkehrbar und differenzierbar in x0 mit f (x0 ) = 0, so ist die Umkehrfunktion f −1 differenzierbar in y0 = f (x0 ) mit −1 f (y0 ) =
1 1 = −1 . f (x0 ) f (f (y0 ))
5.2 Rechenregeln
103
Bemerkungen 5.2.9 zum Satz u¨ber die Ableitung der Umkehrfunktion 1. Bei linearen Funktionen ist die Invertierung der Steigung bei der Umkehrfunktion leicht einzusehen: Ist f (x) = mx + a, so erh¨alt man die Umkehrfunktion durch ⇔
y = mx + a
x =
1 a 1 · (y − a) = ·y− , m m m
also f −1 (y) =
a 1 ·y− . m m
Die urspr¨ ungliche Funktion f hat die Steigung m, die Umkehrfunktion f −1 1 die Steigung m . 2. Abb. 5.7 verdeutlicht die Lage von x0 und y0 = f (x0 ) sowie den Zusammenhang der Steigungen: Die Tangenten zur Funktion f in x0 und zur Umkehrfunktion f −1 in y0 = f (x0 ) sind zueinander gespiegelt, also jeweils Umkehrfunktionen zueinander.
x0
f −1 (y0 ) =
f
f (x0 )
Nach der Rechnung von 1. besitzen diese Tangenten damit zueinander inverse Steigungen. Da diese genau den Ableitungen f (x0 ) und f −1 (y0 ) entsprechen, folgt
f −1
y
f (x0 )
x0
x
Abb. 5.7 Steigungen zu f und f −1 .
1 . f (x0 )
3. Rechnerisch erh¨alt man Satz 5.2.8 wie bei Beispiel 5.2.7, 4.: Wegen x = f −1 (f (x)) = (f −1 ◦ f )(x) ergibt sich beim Ableiten beider Seiten, rechts unter Anwendung der Kettenregel: 1 = (f −1 ◦ f ) (x0 ) = f −1 (f (x0 )) · f (x0 ) = f −1 (y0 ) · f (x0 ),
also f −1 (y0 ) =
1 f (x0 ) .
Beispiel 5.2.10
Die Umkehrfunktion zu f (x) = tan x ist x = f −1 (y) = arctan y. Nach Beispiel 5.2.2, 4., ist (tan x) = 1 + tan2 x. Damit erh¨alt man (arctan y) =
1 1 1 . = 2 = 1 + y2 1 + tan2 x 1 + tan(arctan y)
104
5 Differenzialrechnung ¨ Ubersicht u ¨ ber wichtige Ableitungen
519
f (x)
f (x)
Bemerkung
xa
axa−1
Die Formel gilt f¨ ur alle Werte a ∈ R.
1
0
Wegen 1 = x0 folgt die Formel aus der Ableitung zu xa mit a = 0.
x
1
Wegen x = x1 folgt die Formel aus der Ableitung zu xa mit a = 1.
x2
2x
√
1 √
x
1 x
2 x 1 − 2 x
ex
ex
ax
ax ln a
loga x
1 x 1 x ln a
sin x
cos x
cos x
− sin x
ln x
tan x cot x arcsin x arccos x arctan x
1 cos2 x 1 −1 − cot2 x = − 2 sin x 1 + tan2 x =
1 1 − x2 1 −√ 1 − x2 1 1 + x2 √
Die Formel folgt aus der Ableitung zu xa mit a = 2. 1 √ Wegen x = x 2 folgt die Formel aus der Ableitung zu xa mit a = 12 . Wegen x1 = x−1 folgt die Formel aus der Ableitung zu xa mit a = −1. Wegen ax = ex ln a folgt die Formel aus der Ableitung zu ex . S. Beispiele 5.2.7, 4. x folgt die Formel Wegen loga x = ln ln a aus der Ableitung zu ln x.
S. Beispiele 5.2.2, 4. Die Formel erh¨ alt man ¨ ahnlich zur Ableitung von tan x, s. Beispiele 5.2.2, 4. Die Formel kann man mittels Satz 5.2.8 und der Ableitung zu sin x herleiten. Die Formel kann man mittels Satz 5.2.8 und der Ableitung zu cos x herleiten. S. Beispiel 5.2.10.
sinh x
cosh x
Die Formel folgt elementar aus der Definition sinh x = 12 ex − e−x .
cosh x
sinh x
Die Formel folgt elementar aus der Definition cosh x = 12 ex + e−x .
5.3 Anwendungen
105
5.3 Anwendungen 5.3.1 Kurvendiskussion Bei differenzierbaren Funktionen kann man mit Hilfe der Ableitungen R¨ uckschl¨ usse auf den Kurvenverlauf ziehen.
Satz 5.3.1 (Ableitung und Monotonie) Ist die Funktion f : ]a, b[ → R differenzierbar, so gilt f (x) ≥ 0 f¨ ur alle x ∈ ]a, b[ f (x) ≤ 0
⇔
f ist
520
monoton wachsend . monoton fallend
Ist sogar f (x) > 0 bzw. f (x) < 0 in ]a, b[, so folgt strenge Monotonie. f (x)
f (x)
x x Abb. 5.8 Streng monotone (links) und monotone Funktion (rechts).
Bemerkungen 5.3.2 zu Satz 5.3.1 1. An der streng monoton wachsenden Funktion f (x) = x3 sieht man, dass aus der strengen Monotonie nicht zwangsl¨aufig folgt, dass die Ableitung immer echt gr¨oßer oder kleiner als Null ist, denn mit f (x) = 3x2 ist f (0) = 0.
f (x) x Abb. 5.9 Strenge Monotonie.
2. Ist das Definitionsgebiet kein Intervall sondern gibt es Definitionsl¨ ucken, so kann die Ableitung u ¨berall im Definitionsgebiet positiv sein, ohne dass Monotonie im gesamten Definitionsgebiet vorliegt, z.B. bei f (x) = tan x.
Definition 5.3.3 (lokale Extremstelle) Sei f : D → R eine Funktion und x0 ∈ D. Man sagt: Die Funktion f hat in x0 ein lokales
Maximum Minimum
es gibt eine Umgebung Uε (x0 ), so dass :⇔
f¨ ur alle x ∈ Uε (x0 ) ∩ D gilt:
Die Stelle x0 heißt dann lokale Extremstelle.
f (x) ≤ f (x0 ) . f (x) ≥ f (x0 )
521
106
5 Differenzialrechnung
Bemerkung 5.3.4 (lokale und globale Extremstelle) Ist x0 beispielsweise eine lokale Maximalstelle der f (x) Funktion f , so ist f (x0 ) in der N¨ahe von x0 der gr¨oßte Funktionswert (im Sinne von ≥“). Es ” kann woanders aber noch gr¨oßere Funktionswerte geben, s. Abb. 5.10. ur alle Gilt f (x1 ) ≥ f (x) bzw. f (x1 ) ≤ f (x) f¨ x ∈ D, so nennt man x1 globale Extremstelle.
x0
x1 x
Abb. 5.10 Lokale (x0 ) und globale (x1 ) Extremstelle.
Satz 5.3.5 (notwendige Bedingung f¨ur eine Extremstelle) 522
Ist die Funktion f : ]a, b[ → R differenzierbar, so gilt x0 ∈ ]a, b[ ist lokale Extremstelle
⇒ f (x0 ) = 0.
Bemerkungen 5.3.6 zur notwendigen Bedingung f¨ur eine Extremstelle 1. Die R¨ uckrichtung “⇐“ im Satz 5.3.5 gilt nicht.
f (x)
Beispiel 5.3.6.1
x 3
Die Funktion f (x) = x hat die Ableitung f (x) = 3x2 , also insbesondere f (0) = 0, aber 0 ist keine Extremstelle von f . 2. Es ist wichtig, dass die betrachtete Stelle x0 im Inneren des Intervalls liegt. Bei einer lokalen Extremstelle am Rand muss die Ableitung (einseitig betrachtet) nicht gleich Null sein, s. Abb. 5.12.
Abb. 5.11 Ableitung gleich Null, aber keine Extremstelle. f (x) x Abb. 5.12 Ableitung ungleich Null, aber Extremstelle.
3. Satz 5.3.5 kann benutzt werden, wenn man das Maximum oder Minimum einer differenzierbaren Funktion sucht: Man berechnet die Nullstellen der Ableitung. Liegt die Extremstelle im Inneren des Definitionsbereichs, so ¨ muss sie eine der Nullstellen sein. Eventuell sind gesonderte Uberlegungen f¨ ur die R¨ander des Definitionsbereichs n¨otig. Merkregel: Kandidaten f¨ ur Extremstellen sind die Nullstellen der Ableitung und Randstellen.
5.3 Anwendungen
107
Satz 5.3.7 (hinreichende Bedingung f¨ur eine Extremstelle) F¨ ur eine Funktion f : D → R und x0 ∈ D gilt1 1. f (x0 ) = 0 und
f (x0 ) < 0 f (x0 ) > 0
⇒
x0 ist
Maximalstelle. Minimal-
523
2. f (x0 ) = 0 und in x0 hat f einen Vorzeichenwechsel von +“ zu ” von −“ zu ”
Maximal−“ ” stelle. ⇒ x0 ist Minimal+“ ”
524
1
Bemerkungen 5.3.8 zur hinreichenden Bedingung f¨ur eine Extremstelle 1. Abb 5.13 zeigt einen typischen Verlauf von f , f und f bei Anwendung von Satz 5.3.7, 1. f (x)
f (x)
x0
f (x)
x0
x
x
x0
x
Abb. 5.13 Typischer Verlauf bei f (x0 ) = 0 und f (x0 ) < 0.
Ist f in einer Umgebung von x0 negativ (dies gilt, wenn f (x0 ) < 0 und f stetig ist), so ist f in dieser Umgebung monoton fallend. Ist noch f (x0 ) = 0, so bedeutet dies einen Vorzeichenwechsel von f bei x0 von +“ zu −“. Die ” ” Funktion f ist also links von x0 wachsend und rechts von x0 fallend, muss in x0 also eine Maximalstelle besitzen. 2. Abb. 5.14 zeigt m¨ogliche Verhalten bei einer Nullstelle der Ableitung. f (x)
g(x)
x0
x
f (x)
x0
x
x0
x
g (x) x0
x
Abb. 5.14 Verschiedenes Verhalten bei einer Nullstelle der Ableitung.
Man sieht: Wechselt das Vorzeichen der Ableitung, so liegt eine Extremstelle vor. Bleibt das Vorzeichen gleich, so liegt keine Extremstelle vor; die Ableitung hat dann in x0 eine Extremstelle. Die Ableitung der Ableitung, also die zweite Ableitung, ist dort also gleich Null. 1
unter gewissen Voraussetzungen, beispielsweise falls f zweimal stetig differenzierbar ist.
108
5 Differenzialrechnung
Die zweite Ableitung gibt Auskunft u ummungsverhalten: ¨ber das Kr¨ 525
Satz 5.3.9 (Kr¨ummungsverhalten und Wendestellen) F¨ ur eine Funktion f : ]a, b[ → R gilt1 1. Ist
f (x) < 0 rechtsgekr¨ ummt (konkav) f¨ ur alle x ∈ ]a, b[, so ist f . linksgekr¨ u mmt (konvex) f (x) > 0
2. Ist f¨ ur ein x0 ∈ ]a, b[ f (x0 ) = 0 und f (x0 ) = 0 bzw. hat f einen ummungsverhalten Vorzeichenwechsel bei x0 , so a¨ndert sich das Kr¨ in x0 . Die Stelle x0 heißt dann Wendestelle. 1
f (x)
f (x)
f (x)
x
x
x
Abb. 5.15 Linksgekr¨ ummte (links) und rechtsgekr¨ ummte (Mitte) Funktion sowie Funktion mit Wendestelle (rechts).
Bemerkungen 5.3.10 zum Kr¨ummungsverhalten und zu Wendestellen 1. Bei einer linksgekr¨ ummten Funktion f w¨ achst f (x) f¨ ur zunehmendes x die Steigung der Tangente achst. (s. Abb. 5.16), d.h., die Ableitung f w¨ Nach Satz 5.3.1 folgt damit, dass die Ableitung von f , also f , gr¨oßer oder gleich Null ist. Bei rechtsgekr¨ ummten Funktionen gilt entsprechend f ≤ 0. 2. Eine Wendestelle ist eine Stelle maximaler oder minimaler Steigung. 3. Eine Wendestelle x0 mit f (x0 ) = 0 heißt auch Sattelstelle, z.B. x0 = 0 bei f (x) = x3 , s. Abb. 5.17.
x
Abb. 5.16 Tangenten bei einer linksgekr¨ ummten Funktion.
f (x) x Abb. 5.17 Sattelstelle.
Bemerkung 5.3.11 (Kurvendiskussion) Eine Kurvendiskussion dient dazu, sich ein Bild von einer Funktion zu machen. Dazu kann man beispielsweise bestimmen:
526
• den maximal m¨oglichen Definitionsbereich, 1
unter gewissen Voraussetzungen, beispielsweise falls f f¨ ur 1. zweimal stetig differenzierbar, f¨ ur 2. dreimal stetig differenzierbar ist.
5.3 Anwendungen
109
• die Nullstellen,
• die Extremstellen, • die Wendestellen,
• das Kr¨ ummungsverhalten,
• Grenzwerte an Definitionsl¨ ucken und am Rand des Definitionsbereichs.
Mit den gewonnen Informationen kann man schließlich eine Skizze des Funktionsgrafen erstellen. Beispiel 5.3.11.1 Betrachtet wird die Funktion f (x) =
x2
x . +1
527
1. Der maximal m¨ogliche Definitionsbereich in den reellen Zahlen ist D = R. 2. F¨ ur Nullstellen gilt offensichtlich f (x) = 0 ⇔ x = 0. 3. Extremstellen: Da f auf ganz R differenzierbar ist, ist eine notwendige Bedingung f¨ ur eine Extremstelle, dass f (x) = 0 ist Es ist f (x) =
1 · (x2 + 1) − x · 2x −x2 + 1 = . (x2 + 1)2 (x2 + 1)2
Also ist f (x) = 0
⇔
−x2 + 1 = 0
⇔
x = ±1.
Genauere Untersuchung der Extremstellen-Kandidaten ±1: 1. M¨oglichkeit (Untersuchung von f ): Es ist −2x(x2 + 1)2 − (−x2 + 1) · 2(x2 + 1) · 2x (x2 + 1)4 2 −2x(x + 1) + (x2 − 1) · 4x = (x2 + 1)3 3 2x − 6x = , (x2 + 1)3
f (x) =
also mit Satz 5.3.7, 1., −4 23 < 0 = 243 > 0
f (1) =
f (−1)
⇒ 1 ist Maximalstelle,
⇒ −1 ist Minimalstelle.
(∗)
528
110
5 Differenzialrechnung 2. M¨oglichkeit (Untersuchung des Vorzeichenwechsels von f ): Beispielsweise ist f (0) = 1 > 0 und f (2) =
−4+1 (4+1)2
< 0.
Da es in [0, 2] außer 1 keine weitere Nullstelle von f gibt, ist f > 0 in [0, 1[ und f < 0 in ]1, 2], d.h. f hat in 1 einen Vorzeichenwechsel von +“ zu −“. ” ” Nach Satz 5.3.7, 2., ist 1 also eine Maximalstelle von f . Entsprechend erh¨alt man mit f (−2) < 0, dass f in −1 einen Vorzeichenwechsel von −“ zu +“ also f in −1 ein Minimum hat. ” ” An den Extremstellen ist f (1) = 12 und f (−1) = − 12 . 4. Kandidaten f¨ ur Wendestellen sind die Nullstellen von f (zur Berech nung von f s. (∗) oben): 529
f (x) = 0 ⇔ 2x3 − 6x = 0 ⇔ x3 = 3x √ ⇔ x = 0 oder x = ± 3. ahler ist ein Polynom dritten Der Nenner von f ist immer positiv. Der Z¨ Grades. Die drei Nullstellen des Z¨ahlers m¨ ussen daher einfache Nullstellen sein, d.h. es liegen jeweils Vorzeichenwechsel im Z¨ ahler und damit von f vor. √ Satz 5.3.9, 2., besagt dann, dass 0 und ± 3 Wendestellen sind mit den √ √ Werten f (0) = 0 und f ± 3 = ± 43 .
5. F¨ ur sehr große x ist f (x) > 0. Da die Wendestellen genau die Stellen sind, an denen sich das Vorzeichen der zweiten Abteilung ¨ andert, folgt: √ f¨ ur x> 3 ummt, ist f (x) > 0, also f linksgekr¨ √ f¨ ur 0 < x < 3 ist f (x) < 0, also f rechtsgekr¨ ummt, √ f¨ ur − 3 < x < 0 ist f (x) > 0, also f linksgekr¨ ummt, √ f¨ ur x < − 3 ist f (x) < 0, also f rechtsgekr¨ ummt. 6. Es gilt lim f (x) = 0 = lim f (x). x→−∞
530
x→∞
7. Auf Basis der gewonnenen Informationen erh¨ alt man einen Funktionsgraf wie ihn Abb. 5.18 zeigt. f (x) 0.5
−1
x
1 −0.5
Abb. 5.18 Funktionsgraf zu f (x) =
x . x2 +1
5.3 Anwendungen
111
5.3.2 Regel von de L’Hospital Die Regel von de L’Hospital ist ein Hilfsmittel zur Berechnung von Grenzwerten (x) (a) ∞ lim fg(x) , falls fg(a) vom Typ 00 oder ∞ ist, z.B. lim sinx x .
x→a
x→0
531
Satz 5.3.12 (Regel von de L’Hospital) Sei a ∈ R oder a = ±∞ und f¨ ur die Funktionen f und g gelte lim f (x) = 0 = lim g(x) oder lim f (x) = ±∞, lim g(x) = ±∞.
x→a
x→a
x→a
x→a
f (x) f (x) = lim , falls der rechte Grenzwert existiert x→a g(x) x→a g (x) (±∞ als Wert zugelassen).
Dann gilt1 lim
1
Beispiel 5.3.13 Es gilt lim
x→0
sin x x
de L’H.
=
cos x cos 0 1 = = = 1. 1 1 1
lim
x→0
Bemerkungen 5.3.14 (Anwendung der Regel von de L’Hospital) 1. Ist der rechte Grenzwert wieder von der Art 00 oder Regel von de L’Hospital wiederholt anwenden.
∞ ∞,
kann man ggf. die
Beispiel 5.3.14.1 cos x − 1 x→0 x2 lim
− sin x x→0 2x − cos 0 1 − cos x = = − . lim x→0 2 2 2
de L’H.
=
lim
de L’H.
=
2. Bei Grenzwerten zu Produkten f (x) · g(x) vom Typ 0 · ∞ ist ein Satz der Form lim f (x) · g(x) = lim f (x) · g (x)“ falsch. Sie k¨ onnen aber in der Form ” f (x) 1 g(x)
(Typ 00 )
oder
g(x) 1 f (x)
(Typ
∞ ∞)
behandelt werden. Beispiel 5.3.14.2 Den Grenzwert lim x · ln x kann man mit der Regel von de L’Hospital x→0+
wie folgt berechnen: lim x · ln x =
x→0+ 1
lim
x→0+
ln x 1 x
de L’H.
=
1 x x→0+ − 12 x
lim
=
lim (−x) = 0.
x→0+
falls f und g differenzierbar sind, und g (x) = 0 f¨ ur x nahe a, x = a, ist
112
5 Differenzialrechnung
5.3.3 Newton-Verfahren Bei einer differenzierbaren Funktion kann der Funktionsgraf durch Tangenten approximiert werden. Dies kann man zur Berechnung von Nullstellen ausnutzen: 532
ahe einer Nullstelle Sei f : R → R differenzierbar und die Stelle x0 liege in der N¨ von f . Die Nullstelle der Tangente an den Funktionsgraf in x0 liefert eine neue N¨aherung x1 , s. Abb. 5.19. Diese Tangente wird beschrieben durch
533
t(x) = f (x0 ) + f (x0 )(x − x0 ). y
F¨ ur x1 muss also gelten:
f t
!
0 = t(x1 ) = f (x0 ) + f (x0 )(x1 − x0 ) ⇔ ⇔
f (x0 ) = x 1 − x0 f (x0 ) f (x0 ) . x1 = x 0 − f (x0 )
x0
x1
x
−
Dies kann man nun iterieren:
Abb. 5.19 Newton-Verfahren.
1
Satz 5.3.15 (Newton-Verfahren) Ist die Funktion f differenzierbar, so konvergiert die Folge (xn )n∈N mit xn+1 = xn −
f (xn ) f (xn )
in vielen F¨ allen1 gegen eine Nullstelle von f .
f (x)
Beispiel 5.3.16 Gesucht ist eine Nullstelle der Funktion 534 2
f (x) = x − 4.
1
x0 = 1 x1
x
Als erste N¨aherung wird x0 = 1 gew¨ahlt. Es ist f (x) = 2x, also xn+1 = xn − 1
x2n − 4 . 2xn
Abb. 5.20 Newton-Iteration.
Es gibt Kriterien, wann das Newton-Verfahren konvergiert, allerdings nutzt man diese in der Praxis so gut wie nie.
5.3 Anwendungen
113
Damit ergibt sich: 2
−4 = 2.5, x1 = 1 − 12·1 x3 ≈ 2.0006,
x2 = 2.5 −
2.52 −4 2·2.5
= 2.05,
x4 ≈ 2.00000009.
Bemerkungen 5.3.17 zum Newton-Verfahren 1. Das Newton-Verfahren konvergiert nicht immer. Wenn es konvergiert, dann meistens sehr schnell. 2. Wie schon beim Bisektionsverfahren bemerkt (s. Bemerkung 4.2.7) kann man jedes Aufl¨osen von Gleichungen durch entsprechende Umformung als Nullstellenproblem auffassen. Dann kann man versuchen, dieses Nullstellenproblem mit dem Newtonverfahren zu l¨ osen und damit die urspr¨ ungliche Gleichung zu l¨osen. Beispiel 5.3.17.1 (vgl. Beispiel 4.2.7.1) Gesucht ist eine Stelle x mit x · ex = 1. Es gilt
x · ex = 1
⇔
x · ex − 1 = 0,
Man kann also versuchen, eine L¨osung x mittels des Newton-Verfahrens angewendet auf f (x) = x · ex − 1 zu finden. Mit f (x) = ex +x· ex ist die Iterationsformel xn+1
x n · ex n − 1 = x n − xn . e + xn · exn
Abbildung 5.21 zeigt die sich ergebenden Iterationswerte mit Startwert x0 = 1. Nach f¨ unf Schritten erreicht man eine Genauigkeit von ca. 8 Stellen, w¨ahrend man beim Bisektionsverfahren nach zehn Schritten erst eine Genauigkeit von 4 Stellen erreicht hat, s. Beispiel 4.2.7.1.
n 0 1 2 3 4 5
xn 1 0.68393972 0.57745448 0.56722974 0.56714330 0.56714329
Abb. 5.21 Werte bei der Newton-Iteration (auf 8 Stellen gerundet).
3. Will man das Verfahren programmieren, und steht nur die Funktion f , nicht ugung, kann man die Ableitung durch den Differenzenquoaber f zur Verf¨ tienten f¨ ur kleines h nutzen, s. Bemerkung 5.1.9: f (x0 ) ≈
f (x0 + h) − f (x0 ) . h
535
114
5 Differenzialrechnung
5.3.4 Taylor-Polynome und -Reihen Ist die Funktion f an der Stelle x0 differenzierbar, so l¨ asst sich der Graf in der N¨ahe von x0 durch eine Gerade approximieren, z.B. nahe x0 = 0: 536
537
f (x) ≈ f (0) + f (0) · x. Mit h¨oheren Ableitungen erh¨alt man oft noch bessere Approximationen. Als Ansatz f¨ ur eine Approximation kann man ein Polynom h¨oherer Ordnung nutzen und bestimmt dieses so, dass es (wie die Tangente) den gleichen Funktionswert und die gleiche Steigung in x0 hat, und dar¨ uberhinaus auch weitere u ¨bereinstimmende Werte h¨oherer Ableitungen.
f (x)
x Abb. 5.22 Lineare und quadratische N¨ aherung.
Beispiel 5.3.18 Die Funktion f soll nahe x0 = 0 durch ein Polynom p dritten Grades approximiert werden. Der Ansatz p(x) = a + bx +
cx2 +
dx3
f¨ uhrt zu p (x) = p (x) = p (x) =
b + 2 · cx + 3 · dx2 , 2 · c + 3 · 2 · dx,
3 · 2 · 1 · d.
Will man p so w¨ahlen, dass der Funktionswert und Ableitungen bis zur Ordnung 3 an der Stelle 0 mit den entsprechenden Werten von f u ¨bereinstimmen, erh¨alt man f (0) = p(0) = a f (0) = p (0) = b f (0) = p (0) = 2c f (0) = p (0) = 3 · 2 · 1 · d
⇒ ⇒
a = f (0), b = f (0),
⇒
d=
⇒
c =
1 2 f (0), 1 3! f (0).
und damit 1 1 p(x) = f (0) + f (0) · x + f (0) · x2 + f (0) · x3 . 2 3!
5.3 Anwendungen
115
Definition 5.3.19 (Taylor-Polynom) Die Funktion f sei an der Stelle x0 n-mal differenzierbar. Dann heißt n 1 (k) f (x0 )(x − x0 )k Tn;x0 (x) = Tn (x) := k! k=0
1 = f (x0 ) + f (x0 )(x − x0 ) + f (x0 )(x − x0 )2 2 1 (n) + · · · + f (x0 )(x − x0 )n n!
das n-te Taylor-Polynom zu f in x0 . Die Stelle x0 heißt Entwicklungsstelle.
Bemerkung 5.3.20 (lineare und quadratische N¨aherung) F¨ ur n = 1 erh¨alt man die Tangentengleichung als lineare N¨aherung: f (x) ≈ T1 (x) = f (x0 ) + f (x0 ) · (x − x0 ). F¨ ur n = 2 erh¨alt man eine Parabel als quadratische N¨aherung.
Beispiel 5.3.21 Sei f (x) =
1 , x
also f (x) = −
1 x2
und
f (x) = 2 ·
538
1 . x3
Das zweite Taylor-Polynom T2 zu f an der Entwicklungsstelle x0 = 2 ist T2 (x) = f (2) + f (2)(x − 2) + 21 f (2)(x − 2)2 = 12 + − 14 (x − 2) + 12 · 41 (x − 2)2 =
1 2
− 41 x +
=
3 2
3 4x
−
+
1 2
+ 81 (x2 − 4x + 4)
1 2 8x .
y
1 1
2
x
Abb. 5.23 Quadratische Taylor-Approximation.
Bemerkung 5.3.22 (Taylor-Polynom zu Polynomen) Da das n-te Taylor-Polynom in gewissem Sinne das beste Polynom ist, das f approximiert, ist plausibel: ur n ≥ N . Ist f ein Polynom vom Grad N , so gilt Tn = f f¨
539
116
5 Differenzialrechnung
Bemerkungen 5.3.23 (Taylor-Reihe) 1. F¨ ur n gegen unendlich erh¨alt man eine Reihe, die sogenannte T aylor − Reihe. In vielen F¨allen konvergiert diese Reihe und stellt die urspr¨ ungliche Funktion dar. Beispiel 5.3.23.1 Zur Funktion f (x) = ex ist f (n) (x) = ex f¨ ur alle n ∈ N.
Als Taylor-Reihe zu x0 = 0 erh¨alt man dann wegen f (n) (0) = 1: 1 + 1 · (x − 0) + = 1+
x
1 1 1 · (x − 0)2 + · (x − 0)3 + · (x − 0)4 + . . . 2 3! 4!
+
1 2 x 2!
+
1 3 x 3!
+
1 4 x 4!
+ ...
Dies entspricht genau der Potenzreihe zu f (x) (s. Satz 3.3.4). 2. Die Taylor-Reihe mit Entwicklungsstelle x0 = 0 entspricht der PotenzreihenDarstellung einer Funktion. Man nennt diese Reihe auch Maclaurinsche Reihe zu f . Das n-te Taylorpolynom in x0 = 0 entspricht der nach xn abgeschnittenen Potenzreihe. Der folgende Satz erm¨oglicht Absch¨atzungen, wie nahe das n-te Taylor-Polynom Tn (x) der Funktion f (x) ist.
Satz 5.3.24 (Taylor-Restglied) 540
Die Funktion f : ]a, b[ → R sei (n + 1)-mal differenzierbar, x0 ∈ ]a, b[ und Tn;x0 (x) das n-te Taylor-Polynom zu f mit Entwicklungsstelle x0 . Dann gibt es zu jedem x ∈ ]a, b[ eine Stelle ϑ zwischen x0 und x mit f (x) = Tn;x0 (x) +
1 f (n+1) (ϑ) · (x − x0 )n+1 . (n + 1)!
Restglied
Bemerkung 5.3.25 (Gestalt des Restglieds) Das Restglied hat die gleiche Gestalt wie die Summanden der TaylorEntwicklung, nur dass die Ableitung nicht an der Stelle x0 sondern an einer Zwischenstelle ϑ zwischen x und x0 genommen wird.
5.3 Anwendungen
117
Bemerkung 5.3.26 (Anwendung von Satz 5.3.24 zur Absch¨atzung) Satz 5.3.24 wird meist in der folgenden Form benutzt: Es gilt 1 (n+1) n+1 (ϑ) · (x − x0 ) |f (x) − Tn (x)| = f (n + 1)!
f¨ ur eine Stelle ϑ zwischen x0 und x. Da man ϑ nicht genau kennt, sucht man ur alle ϑ zwischen x0 und x. Dann folgt eine Schranke |f (n+1) (ϑ)| ≤ M f¨ |f (x) − Tn (x)| ≤
1 · M · |x − x0 |n+1 (n + 1)!
bzw. bei |x − x0 | < ε |f (x) − Tn (x)| ≤
1 · M · εn+1 . (n + 1)!
Beispiel 5.3.26.1 (Fortsetzung von Beispiel 5.3.21) Es soll untersucht werden, wie gut f¨ ur x ∈ [1.5, 2.5] die N¨ aherung zur Funktion f (x) = x1 durch das zweite Taylor-Polynom T2 (x) mit Entwicklungsstelle x0 = 2 ist. Es ist f (x) = −6 ·
1 x4 .
Nach Satz 5.3.24 gibt es eine Stelle ϑ zwischen 2 und x mit
1 1 3 |f (x) − T2 (x)| = · −6 · 4 · (x − 2) . 3! ϑ
Insbesondere ist ϑ ≥ 1.5, also 1 1 . |f (ϑ)| = −6 · 4 ≤ 6 · ϑ 1.54 Damit und mit |x − 2| ≤ absch¨atzen und erh¨alt
1 2
Bereich, in dem ϑ liegen kann
Wegen x ∈ [1.5, 2.5], und da die Stelle ϑ zwischen x und x0 = 2 liegt, ist auch ϑ ∈ [1.5, 2.5], s. Abb. 5.24.
(∗)
1
2
x
3
Abb. 5.24 Lage von ϑ.
kann man die Faktoren aus Gleichung (∗)
1 1 ·6· · |f (x) − T2 (x)| ≤ 3! 1.54
3 1 ≤ 0.025. 2
541
6
Integralrechnung
Integrale treten nicht nur bei Fl¨achenberechnungen auf. Auch bei vielen anderen Sachverhalten trifft man auf den Prozess des immer feineren Unterteilens und Aufsummierens, wie er bei der Definition des Integrals zu Grunde liegt. Der erste Abschnitt widmet sich diesem Verst¨ andnis von Integralen als Grenzwert einer Aufsummierung bei immer feineren Zerlegungen. Auf den ersten Blick vielleicht erstaunlich zeigt sich dann, dass die Integration die Umkehrung der Differenziation ist, so dass man aus den Regeln zur Differenziation Regeln zur Integration herleiten kann.
6.1 Definition und elementare Eigenschaften Einfu ¨ hrung 6.1.1 Motivation der Integralrechnung ist die Berechnung der Fl¨ache unter einer Funktion f : [a, b] → R.
Dazu kann man die Fl¨ache durch Rechtecke approximieren. Die x-Achse wird dabei in kleine Abschnitte eingeteilt, u ¨ber denen Rechtecke mit einer H¨ohe betrachtet werden, die in etwa der des Funktionsgrafen entspricht (s. Abb. 6.1).
f (x) 600
x0 x1 x2 . . . a
xn x b Abb. 6.1 Approximation der Fl¨ ache durch Rechtecke.
Definition 6.1.2 (Zerlegung) Eine Zerlegung Z von [a, b] wird gebildet durch Stellen xk mit
601
a = x0 < x1 < . . . < xn−1 < xn = b, Δxk := xk − xk−1 ist die L¨ange des k-ten Teilintervalls,
ΔZ := max{Δx1 , . . . , Δxn } heißt Feinheit der Zerlegung.
© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 G. Hoever, Höhere Mathematik kompakt, https://doi.org/10.1007/978-3-662-62080-9_6
119
120
6 Integralrechnung
Bemerkung 6.1.3 (¨aquidistante Zerlegung) Oft nutzt man eine ¨aquidistante Zerlegung, d.h., eine Zerlegung mit gleich b−a langen Teilintervallen. Dann ist Δxk = b−a n und xk = a + k · n . Als H¨ohe des approximierenden Rechtecks in dem Intervall [xk−1 , xk ] kann man den Funktionswert an einer Zwischenstelle x "k ∈ [xk−1 , xk ] nehmen. Der xk ) · Δxk . Fl¨acheninhalt des Rechtecks ist dann f (" xk ) · (xk − xk−1 ) = f ("
Definition 6.1.4 (Riemannsche Zwischensumme) 602
Sei f : [a, b] → R eine Funktion, Z = {x0 , x1 , . . . , xn } eine Zerlegung ahlt. Dann heißt von [a, b], und Zwischenstellen x "k ∈ [xk−1 , xk ] gew¨ S(f, Z, x "k ) :=
n
k=1
f (" xk ) · Δxk Riemannsche Zwischensumme.
Bemerkung 6.1.5 (Ober- und Untersumme) 603
604
W¨ahlt man die Zwischenstellen x "k so, dass der Funktionswert f (" xk ) im "k ) Intervall [xk−1 , xk ] maximal bzw. minimal ist, so nennt man S(f, Z, x auch Obersumme bzw. Untersumme.
Definition 6.1.6 (Integral) Eine Funktion f : [a, b] → R ist integrierbar :⇔ f¨ ur jede Folge Zn von Zerlegungen mit lim ΔZn = 0 und n→∞
entsprechend Zn gew¨ahlten Zwischenstellen x "k (n) . "k lim S f, Zn , x
(n)
existiert
n→∞
Dieser Grenzwert wird dann mit
#b a
a bis b u ¨ber f“).
f (x) dx bezeichnet ( Integral von ”
Bemerkungen 6.1.7 zur Definition des Integrals 1. Ein Integral entsprechend Definition 6.1.6 heißt auch Riemann-Integral. Andere Zug¨ange f¨ uhren zu teils anderen Integralbegriffen, z.B. zum sogenannten Lebesgue-Integral. Die Schreibweise erinnert an die Riemannsche # Zwischensumme: Das Summensymbol Σ“ wird zum Integralzeichen “ und Δxk“ wird zu dx“. ” ” ” ”
6.1 Definition und elementare Eigenschaften
2. Statt der Integrationsvariablen x bei
#b
121
f (x) dx kann man auch andere Be-
a
zeichner w¨ahlen, z.B.
#b
f (t) dt.
a
3. Eine Riemannsche Zwischensumme kann man zur numerischen Berechnung eines Integrals benutzen: $b a
f (x) dx ≈
n
k=1
f (" xk ) · Δxk .
4. Falls die Funktion f integrierbar ist, ist der Grenzwert der Zwischensummen tats¨achlich eindeutig. 5. Statt die Konvergenz f¨ ur jede Zerlegungsfolge zu verlangen, kann man Integrierbarkeit auch definieren, indem man verlangt, dass bei einer Zerlegungsfolge Zn mit lim Zn = 0 der Grenzwert der Ober- und Untersummen n→∞ gleich ist.
Beispiel 6.1.8 Betrachtet wird die konstante Funktion
f (x) c
f : [a, b] → R, x → c.
605 x
Sei Z = (x0 , x1 , . . . , xn ) eine Zerlegung des Intervalls [a, b], also a = x0 < x1 < . . . < xn = b, und x "k ∈ [xk−1 , xk ] entsprechende Zwischenstellen.
a
b Abb. 6.2 Eine konstante Funktion.
Dann gilt
S (f, Z, x "k ) = =
n
k=1 n k=1
f (" xk ) · Δxk c · (xk − xk−1 ) = c ·
n
(xk − xk−1 )
k=1
= c · (x1 − x0 ) + (x2 − x1 ) + . . . + (xn − xn−1 ) = c · (−x0 + xn ) = c · (b − a). Die Riemannsche Zwischensumme ist also unabh¨ angig von der konkreten Zerlegung. Damit ist die Funktion f integrierbar mit $b a
f (x) dx = c · (b − a).
122
6 Integralrechnung f (x)
1
Zu c = −1, also f (x) = −1 ist beispielsweise $2
2 x
−1
f (x) dx = (−1) · (2 − 1) = −1.
Abb. 6.3 Eine negative“ ” Fl¨ ache.
1
Eine Fl¨ache unterhalb der x-Achse wird also negativ gewertet.
Satz 6.1.9 606
Jede stetige Funktion ist integrierbar.
Bemerkung 6.1.10 (st¨uckweise stetige Funktion) Satz 6.1.9 kann man verallgemeinern auf st¨ uckweise stetige Funktionen, d.h. Funktionen mit endlich vielen Sprungstellen, zwischen denen die Funktion stetig ist, z.B.: −1 , x ≤ 0 . f : [−1, 1] → R, x → 1 ,x>0 Es ist
#1
f (x)
1 −1
x 1 −1
f (x) dx = 0, wie man an Abb. 6.4 sieht:
Abb. 6.4 Eine st¨ uckweise stetige Funktion.
−1
Der negative Fl¨achenanteil hebt den positiven genau auf.
Beispiele 6.1.11 #1 1. Ziel ist die Bestimmung von x dx. #1 0 Da der Integrand f (x) = x stetig ist, existiert x dx nach Satz 6.1.9 und 0
607
kann entsprechend der Definition mit einer konkreten Folge von Zerlegungen und entsprechenden Zwischenpunkten berechnet werden.
Zwischen¨ uberlegung 6.1.11.1 (Summenformel) 608
Abb. 6.5 zeigt n · (n + 1) Punkte, jeweils gleichviele schwarze und weiße Punkte. Es gibt also n·(n+1) schwarze Punkte. Durch zei2 lenweises Aufsummieren erh¨alt man n
k=1
k = 1+2+...+n =
n · (n + 1) . 2
... ... ... n . . . . . . .. .. .. . . . . .. ... n+1
Abb. 6.5 Illustration der Summenformel.
6.1 Definition und elementare Eigenschaften
123
Zur Berechnung des Integrals werden nun konkret die ¨aquidistanten Zerlegungen Zn = {0, (n) xk
f (x)
1 2 n−1 , , ... , , 1}, n n n
x
k n,
k = 0, . . . , n, und dazu die Zwi= also (n) (n) = xk = nk am rechten Interschenstellen x "k vallrand gew¨ahlt. (n)
Wegen Δxk
=
1 n
S f, Zn , x "k
1 Abb. 6.6 Approximation mit ¨ aquidistanter Zerlegung.
erh¨alt man
(n)
=
n
(n) xk
k=1
·
n k 1 = · n n
(n) Δxk
n 1 k = 2· n
k=1
Vor¨ uberlegung
=
k=1
1 n(n + 1) · n2 2
n + 1 n→∞ 1 . = −→ 2n 2 Also ist $1
f (x) dx =
1 . 2
0
2. Die Funktion f (x) = x12 ist stetig auf R>0 , also f¨ ur jedes 0 < a < b stetig auf [a, b], so dass das f (x) #b Integral x12 dx existiert. a
Man kann mit Hilfe von geschickten Riemannschen Zwischensummen berechnen, dass gilt $b a
a Abb. 6.7
1 1 1 − . dx = x2 a b
b
x
b
1 a x2
dx.
Definition 6.1.12 (uneigentliches Integral) Sei f : [a, c[ → R (c = ∞ zugelassen) eine Funktion und f¨ ur jedes #b #c #b b ∈ ]a, c[ existiere f (x) dx. Dann heißt f (x) dx := lim f (x) dx a
a
b→c− a
uneigentliches Integral von f , falls dieser Grenzwert existiert.
Entsprechendes gilt f¨ ur die Untergrenze a.
609
124
6 Integralrechnung
Beispiel 6.1.13 Mit Beispiel 6.1.11, 2., erh¨alt man: $∞
1 dx = lim b→∞ x2
f (x)
$b
1 dx x2 1 1
x 1 1 1 − = 1, = lim b→∞ 1 b Abb. 6.8 Uneigentliches Integral. #∞ d.h., das uneigentliche Integral x12 dx existiert. 1
Das uneigentliche Integral $1
1 dx = x2
lim
b→0+
$1
1 dx = x2
lim
b→0+
b
0
1 1 − b 1
existiert nicht in R.
Bemerkung 6.1.14 (uneigentliche Integrale und Reihen) Uneigentliche Integrale und Reihen h¨angen eng miteinander zusammen: 610
611
Ist f eine f¨ ur x ≥ 1 monoton fallende Funktion, z.B. f (x) = x12 , so ist n+1 n # f (k) eine Obersumme zu f (x) dx bei einer Zerlegung in die Summe k=1
1
Teilintervalle der L¨ange 1, denn die Summanden f (k) entsprechen genau den "k = k am linken Intervallrand, Rechteckfl¨achen f (" xk )·1 mit Zwischenstelle x s. Abb. 6.9, links. n+1 f (k) ist entsprechend eine Die bei k = 2 beginnende verschobene Reihe k=2
Untersumme, s. Abb. 6.9, rechts. ∞ f (k) genau dann endlich ist, wenn das Damit ist klar, dass die Reihe uneigentliche Integral
#∞
k=1
f (x) dx endlich ist.
1
f (x)
f (x)
x 1
n n+1
x 1
Abb. 6.9 Summen oberhalb und unterhalb des Integrals.
n n+1
6.1 Definition und elementare Eigenschaften
125
¨ Ublicherweise ist beim Integral die obere Grenze gr¨ oßer als die untere. Beim umgekehrten Fall geht man r¨ uckw¨arts, also in negativer Richtung: 612
Definition 6.1.15 #a
F¨ ur a < b setzt man
b
Es ist
#a
f (x) dx := −
#b
f (x) dx.
a
f (x) dx := 0.
a
f (x) 1
Beispiel 6.1.16 Es ist
$1
1 dx = −
$2
x
1 dx = −1.
1
1
2
2
Abb. 6.10 Integration r¨ uckw¨ arts.
Satz 6.1.17 (Zerlegung des Definitionsbereichs) Ist die Funktion f : [a, b] → R integrierbar und c ∈ [a, b], so gilt: $b
f (x) dx =
$c
f (x) dx +
a
a
$b
f (x) dx.
f (x) x a
c
b
Abb. 6.11 Zerlegung des Integrationsbereichs.
c
Bemerkungen 6.1.18 1. Satz 6.1.17 wird zum Beispiel angewendet, wenn f auf den Intervallen [a, c[ und ]c, b] unterschiedlich definiert ist. 2. Der Satz gilt auch f¨ ur c > b. Denn durch Defini#c #b tion 6.1.15 wird mit f (x) dx = − f (x) dx das c
f (x) x a
b
u uck von b zu c wieder ¨berstehende“ Fl¨achenst¨ ” abgezogen.
b
Abb. 6.12 Zerlegung mt c > b.
¨ 3. Durch Anderungen von f an einzelnen Stellen ¨ andert sich Beispiel 6.1.18.1 f (x) 1, falls x = 1 1 Zu f (x) = (s. Abb. 6.13) ist 0, f¨ ur x = 1
#b
f (x) dx nicht.
a
x
$2 0
f (x) dx =
$2 0
1
1 dx = 2.
c
2
Abb. 6.13 Eingeschnit” tene“ Fl¨ ache.
126
6 Integralrechnung
Bemerkungen 6.1.19 (Symmetriebetrachtung bei Integralen) Bei Integralberechnungen kann man Symmetrien ausnutzen: 613
1. Bei einer geraden Funktion f ist $c
−c
f (x) dx = 2 ·
$c
f (x) x
f (x) dx
Abb. 6.14 Integral einer geraden Funktion.
(s. Abb. 6.14). 2. Bei einer ungeraden Funktion f heben sich die positiven und negativen Fl¨achenanteile genau auf, s. Abb. 6.15: $c
c
−c
0
f (x) dx = 0.
f (x) −c
+
−
x
+ −
c
Abb. 6.15 Integral einer ungeraden Funktion.
−c
3. H¨aufig kann man die Symmetrien von sin x und cos x nutzen. So sieht man beispielsweise an Abb. 6.16 $2π
$π
sin x dx = 0,
0
sin(2x) dx = 0 und
0
cos x
2π x
cos x dx = 0.
0
sin(2x)
sin x
$π
π
x
x
π
Abb. 6.16 Symmetrien bei sin x und cos x.
¨ 4. Bei Integralen zu quadrierten Winkelfunktionen k¨ onnen Uberlegungen wie beim folgenden Beispiel 6.1.19.1 helfen: Beispiel 6.1.19.1 Es ist cos2 x + sin2 x = 1. Wegen der Symmetrie von cos x und sin x wird das Rechteck [0, π] × [0, 1] durch den Grafen zu sin2 x genau halbiert (s. Abb. 6.17), so dass sich ergibt: $π
sin2 x dx =
0
sin2 x
1 1 π · 1 = π. 2 2
1 x π
Abb. 6.17 Symmetrie¨ uberlegung zur Berechnung von
π 0
2π sin2 x dx.
6.1 Definition und elementare Eigenschaften
127
Satz 6.1.20 (Rechenregeln f¨ur Integrale) Sind die Funktionen f, g : [a, b] → R integrierbar, so gilt: 1.
#b
(f (x) + g(x)) dx =
a
2.
#b a
#b
f (x) dx +
a
λ · f (x) dx = λ ·
#b
#b
614
g(x) dx.
a
(λ ∈ R).
f (x) dx
a
Beispiel 6.1.21 Unter Verwendung von Satz 6.1.20 und der Ergebnisse von Beispiel 6.1.8 und Beispiel 6.1.11, 1., erh¨alt man $1
(2x + 3) dx =
$1
2x dx +
0
0
= 2·
$1
3 dx
0
$1
x dx +
0
$1
3 dx
0
1 + 3 · (1 − 0) = 4. = 2· 2
Bemerkung 6.1.22 #b #b #b Eine Rechenregel der Art (f (x) · g(x)) dx = f (x) dx · g(x) dx gilt nicht! a
a
a
Beispielsweise ist $2π 0
sin x · sin x dx =
$2π 0
2
sin x dx
=
$2π 0
sin x dx ·
$2π
sin x dx,
0
denn das linke Integral hat mit dem nichtnegativen Integranden offensichtlich einen positiven Wert (analog zur Bemerkung 6.1.19, 4., kann man sich u ¨berlegen, dass der Wert gleich 21 · 2π = π ist), aber die beiden rechten Integrale sind entsprechend der Symmetrie¨ uberlegungen (s. Bemerkung 6.1.19, 3.) gleich Null.
128
6 Integralrechnung
6.2 Hauptsatz der Differenzial- und Integralrechnung Der Hauptsatz der Differenzial- und Integralrechnung, s. Satz 6.2.3, ist auf den ersten Blick sehr erstaunlich, kann aber – wie das folgende Beispiel zeigt – auch intuitiv verst¨andlich sein.
Beispiel 6.2.1 615
Sei f (t) die Regenmenge, die (pro Zeiteinheit) in einen Regenwassersammelbeh¨alter f¨allt, und F (t) der F¨ ullstand dieses Beh¨ alters. Dann ist F (t) =
$t
f (t)
f (τ ) dτ.
t0
¨ Die Anderung des F¨ ullstands F entspricht dem Zufluss f :
t F (t)
F (t) = f (t). Die Regenmenge, die in einem Zeitintervall ullstandsunter[t1 , t2 ] f¨allt, entspricht dem F¨ schied: $t2
t1
t Abb. 6.18 Regenmenge f und F¨ ullstand F eines Regenbeh¨ alters.
f (τ ) dτ = F (t2 ) − F (t1 ).
Definition 6.2.2 (Stammfunktion) Eine Funktion F heißt Stammfunktion zur Funktion f :⇔ F = f .
Satz 6.2.3 (Hauptsatz der Differenzial- und Integralrechnung) Ist die Funktion f : [a, b] → R stetig und F eine Stammfunktion zu f , so gilt $b a
b f (x) dx = F (b) − F (a) =: F (x) . a
Bemerkung 6.2.4 Manchmal bezeichnet man auch die Tatsache, dass f¨ ur F (x) =
#x
x0
f (t) dt wie
in Beispiel 6.2.1 illustriert F (x) = f (x) gilt, als Hauptsatz der Differenzialund Integralrechnung. (Vgl. auch Bemerkung 6.2.7.)
6.2 Hauptsatz der Differenzial- und Integralrechnung
129
Beispiele 6.2.5 1. Die Funktion F (x) = x2 ist eine Stammfunktion zur Funktion f (x) = 2x, denn (x2 ) = 2x. 2. Die Funktion F (x) = 21 x2 ist Stammfunktion zu f (x) = x, denn 21 x2 = 21 · 2x = x.
f (x)
Es ist
$1
x dx =
0
1 1 2 1 1 2 1 2 x = ·1 − ·0 = 2 0 2 2 2
1 x
Abb. 6.19
1 0
x dx.
(vgl. Beispiel 6.1.11, 1.).
3. Eine Stammfunktion zu f (x) = ur 0 < a < b − x1 . Also ist f¨ $b a
1 b 1 dx = − = x2 x a =
−
1 x2
1 b
ist F (x) =
f (x)
1 − − a
a
1 1 − a b
b
Abb. 6.20
b
x
1 a x2
dx.
(vgl. Beispiel 6.1.11, 2.).
Bemerkung 6.2.6 ( Aufleitung“)
” Die Bestimmung einer Stammfunktion ist die Umkehrung“ zur Ableitung. Man nennt sie da” her manchmal auch Aufleitung“. ” Beispiel 6.2.6.1
Aufleiung sin x − cos x Ableiung cos x
Eine Stammfunktion zu f (x) = cos x ist F (x) = sin x, eine Stammfunktion zu f (x) = sin x ist F (x) = − cos x.
− sin x
Abb. 6.21 Ab- und Aufleitung.
Damit erh¨alt man nun beispielsweise $π 0
π sin x dx = − cos x
1
f (x)
0
= − cos(π) − (− cos(0)) = −(−1) − (−1) = 2.
Abb. 6.22
π 0
x π sin x dx.
616
130
6 Integralrechnung
Bemerkung 6.2.7 (Fl¨achenfunktion) 617
618
Wie in Beispiel 6.2.1 illustriert, erh¨alt man zu f (x) einer stetigen Funktion f durch F (x) =
$x
F (x)
a x Abb. 6.23 Fl¨ achenfunktion.
f (t) dt
a
immer eine Funktion F mit F = f (die Wachstumsrate von F entspricht der Gr¨oße von f ), also eine Stammfunktion. Man nennt F auch Fl¨ achenfunktion.
Bemerkungen 6.2.8 (Mehrdeutigkeit der Stammfunktion) 619
1. Die Stammfunktion ist nicht eindeutig. Mit F ist auch G(x) = F (x) + c eine Stammfunktion. Beispiel 6.2.8.1 Zur Funktion f (x) = x sind neben F (x) = 21 x2 auch G1 (x) = 21 x2 + 1 und G2 (x) = 12 x2 − 2 Stammfunktionen: G1 (x) = G2 (x) =
1 · 2x = x = f (x). 2
2. Nimmt man eine andere Stammfunktion, so ¨ andert sich das Ergebnis der Integralberechnung nach Satz 6.2.3 nicht. Beispiel 6.2.8.2 Mit F (x) = 12 x2 + 1 als Stammfunktion zu f (x) = x erh¨ alt man $1
x dx =
0
1
2x
2
1 + 1 = 21 · 12 + 1 − 12 · 02 + 1 = 0
1 2,
also das gleiche Ergebnis wie bei Beispiel 6.2.5, 2.
Allgemein ergibt sich bei der Integralberechnung mit einer Stammfunktion F (x) + c an Stelle von F (x) b F (x) + c = F (b) + c − F (a) + c a
b = F (b) + c − F (a) − c = F (b) − F (a) = F (x) . a
3. Betrachtet man entsprechend Bemerkung 6.2.7 die Fl¨ achenfunktion als Stammfunktion, so ergibt sich auch hier eine Mehrdeutigkeit, da die untere Integralgrenze verschoben werden kann.
6.2 Hauptsatz der Differenzial- und Integralrechnung
131
Bemerkung 6.2.9 (unbestimmtes Integral) Auf Grund von Satz 6.2.3 bezeichnet man eine Stammfunktion auch als unbestimmtes Integral. Wegen der noch m¨ oglichen additiven Konstanten notiert man oft ein +c“ bei der Angabe des unbestimmten Integrals: ” $ f (x) dx = F (x) + c, zum Beispiel
#
620
x dx = 12 x2 + c.
Im Folgenden wird das unbestimmte Integral im Sinne von eine #Stamm” funktion“ ohne den Zusatz +c“ verwendet, und auch kurz nur f = F ” geschrieben.
Bemerkung 6.2.10 (wichtige Stammfunktionen) ¨ Aus der Ubersicht u alt man in um¨ber wichtige Ableitungen, s. S.104, erh¨ gekehrter Leserichtung wichtige Stammfunktionen: ¨ Ubersicht u ¨ ber wichtige Stammfunktionen $
xa dx =
1 xa+1 a+1
$
(a ∈ R, a = −1)
1 dx = ln |x| (s. Erl¨auterung 6.2.10.1) x $ $ sin x dx = − cos x sinh x dx = cosh x
$ $
cos x dx = sin x $
x
e dx = e
$
x
1 dx = arctan x 1 + x2
Erl¨ auterung 6.2.10.1 zu
1 x
#
1 x
$
$
cosh x dx = sinh x
ax dx = √
1 x a ln a
(a > 0)
1 dx = arcsin x 1 − x2
dx = ln |x|:
ur positive Werte x Wegen (ln x) = ist die Logarithmusfunktion ln x f¨ eine Stammfunktion zu x1 . F¨ ur negative x ist ln(−x) definiert, und mit der Kettenregel gilt
ln(−x)
=
1 1 · (−1) = , −x x
so dass ln(−x) f¨ ur negative x eine Stammfunktion zu Der Ausdruck ln |x| fasst die beiden F¨ alle zusammen.
1 x
ist.
621
132
6 Integralrechnung
6.3 Integrationstechniken Durch Satz 6.2.3 wird die (analytische) Integration zur¨ uckgef¨ uhrt auf die Suche nach einer Stammfunktion, also die Umkehrung der Differenziation ( Auflei” ten“). Damit erh¨alt man durch die Ableitungsregeln M¨ oglichkeiten zum Auffinden einer Stammfunktion. W¨ahrend man allerdings zu jeder Zusammenstellung elementarer Funktionen mit den Ableitungsregeln eine elementare Ableitung erh¨ alt, gibt es elementare 2 Funktionen die keine elementare Stammfunktion besitzen, z.B. e−x .
6.3.1 Einfache Integrationstechniken Die einfachen Ableitungsregeln (λ · F ) = λ · F
und
(F + G) = F + G
f¨ uhren zu folgendem Satz:
Satz 6.3.1 (Rechenregeln f¨ur Stammfunktionen) 622
Ist F bzw. G eine Stammfunktion zu der Funktion f bzw. g, so gilt: 1. λ · F ist eine Stammfunktion zu λ · f (λ ∈ R). 2. F + G ist eine Stammfunktion zu f + g.
Beispiel 6.3.2 Zur Funktion f (x) = x ist F (x) = 12 x2 eine Stammfunktion. Dann erh¨alt man zu f1 (x) = 3x = 3 · f (x) eine Stammfunktion durch 1 3 F1 (x) = 3 · F (x) = 3 · x2 = x2 . 2 2 Ferner ist G(x) = x eine Stammfunktion zu g(x) = 1. Damit ist eine Stammfunktion zu h(x) = 3x + 1 = f1 (x) + g(x) H(x) = F1 (x) + G(x) =
3 2 x + x. 2
Bemerkung 6.3.3 Bei Produkten darf man nicht faktorweise die Stammfunktion bilden!
6.3 Integrationstechniken
133
Beispiel 6.3.3.1 Gesucht ist eine Stammfunktion zur Funktion f (x) = x · cos x.
Der Versuch von F (x) = 12 x2 · sin x f¨ uhrt nicht zum Erfolg, da nach der Produktregel gilt: F (x) = x · sin x + 21 x2 · cos x = f (x).
Bemerkungen 6.3.4 (Raten der Stammfunktion) 1. Manchmal kann man die formelm¨aßige Gestalt der Stammfunktion raten und nach zur¨ uck-Ableiten Konstanten anpassen. Beispiel 6.3.4.1 Gesucht ist eine Stammfunktion zur Funktion f (x) = cos(3x). Ein Versuch mit F1 (x) = sin(3x) f¨ uhrt zu F1 (x) = cos(3x) · 3, also einem gegen¨ uber f zus¨atzlichen Faktor 3. F¨ ur F (x) =
1 3
F (x) =
sin(3x) ist dann 1 · cos(3x) · 3 = cos(3x) = f (x). 3
2. Das Vorgehen von 1. geht nur, solange nur Konstanten anzupassen sind. Beispiel 6.3.4.2 Gesucht wird eine Stammfunktion zur Funktion f (x) = cos(x2 ). uhrt zu Testweises Ableiten von F1 (x) = sin(x2 ) f¨ F1 (x) = cos(x2 ) · 2x, also einem gegen¨ uber f zus¨atzlichen Faktor 2x. Ein erneuter Test mit F2 (x) = Produktregel zu
1 2x
· F1 (x) =
1 2x
· sin(x2 ) f¨ uhrt mit der
1 1 · sin(x2 ) + · cos(x2 ) · 2x 2 2x 2x 1 = cos(x2 ) − 2 · sin(x2 ), 2x
F2 (x) = −
so dass dieses Vorgehen nicht zum Erfolg f¨ uhrt. (Tats¨achlich besitzt f keine durch elementare Funktionen ausdr¨ uckbare Stammfunktion!)
623
134
6 Integralrechnung
6.3.2 Partielle Integration (Umkehrung der Produktregel) Ist F bzw. G eine Stammfunktion zu f bzw. g, so ist (F · G) = F · G + F · G = f · G + F · g. # # Also gilt: F · G = f · G + F · g. Daraus folgt:
Satz 6.3.5 (partielle Integration)
624
Ist F bzw. G eine Stammfunktion zu der Funktion f bzw. g, so gilt: $ $ f · G = F · G − F · g, bzw.
$b a
b $b f (x)G(x) dx = F (x) · G(x) − F (x)g(x) dx. a
a
Bemerkung 6.3.6 (partielle Integration als Wippe) Mit dem Begriff Aufleiten“ kann man sich die partielle Integration wie eine ” Wippe vorstellen: Das Restintegral ergibt sich, indem man einen Faktor auf- und den anderen ableitet. Der nicht mehr zu integrierende Teil besteht aus beiden Aufleitungen: $ $ = F · G − F · g f · G
Beispiele 6.3.7 1. Es ist $π 0
π $π sin x · x dx = (− cos x) · x − (− cos x) · 1 dx 0
0
π = (− cos x) · x + 0
$π
cos x dx
0
π π = (− cos x) · x + sin x 0
0
= ((− cos π) · π − 0) + (sin π − 0) = (−(−1)) · π = π. Bei der Berechnung einer Stammfunktion bietet es sich an, das Ergebnis durch Ableiten auf seine Richtigkeit hin zu pr¨ ufen:
6.3 Integrationstechniken
− cos x · x + sin x
135
= sin x · x − cos x · 1 + cos x = sin x · x,
die Stammfunktion ist also korrekt. 2. Um eine Stammfunktion zur Funktion f (x) = ln x zu bestimmen, kann man k¨ unstlich eine 1 hinzuf¨ ugen und dann partiell integrieren: $ $ $ 1 x · dx ln x dx = 1 · ln x dx = x · ln x − x $ = x · ln x − 1 dx
625
= x · ln x − x = x · (ln x − 1).
Bemerkung 6.3.8 (spezielle Anwendungen der partiellen Integration) In manchen Situationen, z.B. bei einem Produkt bzw. Quadrat von Winkelfunktionen, erh¨alt man nach einer oder zwei Anwendungen der partiellen Integration wieder das urspr¨ ungliche Integral als Bestandteil der rechten Seite. Bringt man dies auf die linke Seite, kann man damit ggf. das Integral bestimmen. Beispiel 6.3.8.1 Gesucht ist eine Stammfunktion zu cos2 x. Partielle Integration und eine Ersetzung mittels des trigonometrischen Pythagoras, s. Satz 1.1.55, 2., ergibt $ $ cos2 x dx = cos x · cos x dx $ = sin x · cos x − sin x · (− sin x) dx $ = sin x · cos x + sin2 x dx $ = sin x · cos x + (1 − cos2 x) dx $ = sin x · cos x + x − cos2 x dx. # Durch Addition von cos2 x dx auf beiden Seiten erh¨ alt man $ 2 · cos2 x dx = sin x · cos x + x
und damit $ 1 cos2 x dx = (sin x · cos x + x). 2
626
136
6 Integralrechnung Damit erh¨alt man beispielsweise $π
cos2 x dx =
0
π 1 (sin x · cos x + x) 2 0
1 1 (sin π · cos π + π) − (sin 0 · cos 0 + 0) 2 2 1 1 = (0 + π) − 0 = π. 2 2 y
=
1
Dies ist aus Symmetrie¨ uberlegungen wie in Beispiel 6.1.19.1 auch ohne Rechnung klar: Das Integral entspricht der halben Fl¨ ache des Rechtecks [0, π] × [0, 1]., s. Abb. 6.24.
x Abb. 6.24
π 0
π cos2 x dx.
6.3.3 Substitution (Umkehrung der Kettenregel)
627
Ist F eine Stammfunktion zur Funktion f , so gilt nach der Kettenregel F (g(x)) = F (g(x)) · g (x) = f (g(x)) · g (x). Damit erh¨alt man folgenden Satz:
Satz 6.3.9 (Substitution) Ist F eine Stammfunktion zur Funktion f , so ist1 $ f (g(x)) · g (x) dx = F (g(x)). 1
Beispiel 6.3.10 # 2 Das unbestimmte Integral 2x · ex dx ist von der Form wie in Satz 6.3.9 mit f (x) = ex und g(x) = x2 , also g (x) = 2x. Mit der Stammfunktion F (x) = ex erh¨alt man also $ $ 2 2 2x · ex dx = g (x) · f (g(x)) dx = F (g(x)) = ex , 2 2 was man leicht durch zur¨ uck-Ableiten testen kann: ex = 2x · ex .
1
unter gewissen Voraussetzungen, beispielsweise falls f stetig und g stetig differenzierbar ist
6.3 Integrationstechniken
137
Bemerkungen 6.3.11 zur Substitution 1. Manchmal fehlen noch Konstanten, die man durch Versuch und testweises Ableiten anpassen kann. Beispiel 6.3.11.1 √ # Bei der Bestimmung von x2 · x3 + 1 dx kann man erkennen, dass der Faktor x2 etwas mit der Ableitung von x3 + 1 zu tun hat. √ 1 3 3 Eine Stammfunktion zu z = z 2 ist 32 z 2 . Der Versuch 32 (x3 +1) 2 bringt
3 2 3 (x
3
+ 1) 2
2 3
=
·
3 2
1
· (x3 + 1) 2 · 3x2 = 3x2 ·
x3 + 1,
also einen Faktor 3 zuviel, so dass man eine richtige Stammfunktion erh¨alt durch $ 3 3 x2 · x3 + 1 dx = 13 · 32 (x3 + 1) 2 = 29 (x3 + 1) 2 . 2. Formal kann man die Substitution mit folgender Merkregel durchf¨ uhren: Ersetze g(x) durch t, g (x) dx durch dt, bilde die Stammfunktion und f¨ uhre eine R¨ ucksubstitution durch. Aus Satz 6.3.9 wird dann $ f (g(x)) · g (x) dx
g(x) = t
= g (x) dx = dt
$
t = g(x)
f (t) dt = F (t)
=
F (g(x)).
Beispiel 6.3.11.2 Es ist (vgl. Beispiel 6.3.10) $
2
2x · ex dx
x2 = t
=
2x dx = dt
$
et dt = et
t = x2
=
2
ex .
Manchmal muss man Konstanten passend erg¨ anzen. Beispiel 6.3.11.3 (vgl. Beispiel 6.3.11.1) Es ist $
2
x ·
x3
+ 1 dx = x3 +1 = t
=
3x2
dx = dt
$
1 3 · x + 1 · 3x2 dx 3 $ 1 2 3 1 √ · t dt = · t2 3 3 3
t = x3 +1
=
3 2 3 (x + 1) 2 . 9
628
138
6 Integralrechnung
Alternativ kann man die Ersetzung g (x) dx = dt umformen. Beispiel 6.3.11.4 (vgl. Beispiel 6.3.11.3) √ # Will man bei x2 · x3 + 1 dx die Substitution x3 + 1 = t durchf¨ uhren, ist g (x) dx = 3x2 dx = dt
⇔
x2 dx =
1 dt. 3
Damit ist $ $ $ √ 1 x2 · x3 + 1 dx = x3 + 1 · x2 dx = t · dt, 3
und man erh¨alt das gleiche Integral wie in Beispiel 6.3.11.3.
3. Sind Integralgrenzen gegeben, so kann man durch deren Transformation die R¨ ucksubstitution sparen: 629
$b a
b f g(x) ·g (x) dx = F g(x) = F g(b) −F g(a) a
g(b) $ g(b) = F = f (t) dt. g(a)
g(a)
Satz 6.3.12 (Substitution mit Grenzen) Es gilt:1 $b a
g(b) $ f g(x) · g (x) dx = f (t) dt.
g(a)
1
Merkregel 6.3.13 zur Substitution mit Grenzen ¨ Ahnlich wie bei Bemerkung 6.3.11 kann man hier als Merkregel formulieren: Ersetze g(x) durch t, g (x) dx durch dt und transformiere die Integralgrenzen.
1
unter gewissen Voraussetzungen, beispielsweise falls f stetig und g stetig differenzierbar ist
6.3 Integrationstechniken
139
Beispiel 6.3.14 Es ist $3
2x · ex dx
$3
x2 = t
2
=
2x dx = dt
22
2
2
9 et dt = et = e9 − e4 . 4
Mit der Stammfunktion aus Beispiel 6.3.10 erh¨ alt man das gleiche Ergebnis: $3 2
2 2 3 2 2 2x · ex dx = ex = e3 − e2 = e9 − e4 . 2
Bemerkungen 6.3.15 (Anwendungen der Substitution) 1. Manchmal will man eine Substitution g(x) = t durchf¨ uhren, ohne dass g (x) explizit im Integranden vorkommt. Man kann dann versuchen, den Integranden geeignet zu erweitern bzw. die Ersetzung entsprechend umzuformen. Beispiel 6.3.15.1 Will man bei
#4
e
√
x
dx eine Substitution
√
x = t durchf¨ uhren, so muss
0
man 2√1 x dx = dt setzen, was man nach Erweiterung des Integranden √ 1 machen kann. um 2 x · 2√ x √ F¨ ur den Integrationsbereich gilt x ∈ [0, 4], also x = t ∈ [0, 2]. Damit erh¨alt man $4
e
√
x
dx =
0
$4
e
√
x
√ 1 · 2 x · √ dx 2 x
0
√
x = t
= 1 √ 2 x
dx = dt
$2
et · 2t dt.
0
Dieses Integral ist dann mit partieller Integration l¨ osbar. Alternativ kann man umformen: 1 √ dx = dt 2 x
⇔
√ dx = 2 x · dt = 2t dt
und erh¨alt mit dieser Ersetzung ebenso $4 0
e
√
x
dx =
$2
et · 2t dt.
0
2. Manchmal will man x durch einen Ausdruck g(t) ersetzen. Dann muss man entsprechend der Substitutionsregel dx durch g (t) dt ersetzen und ggf. die Grenzen geeignet transformieren.
630
140
6 Integralrechnung
Beispiel 6.3.15.2 Will man bei
#4
e
√
x
dx die Ersetzung x = t2 durchf¨ uhren, so erh¨ alt man
0
zu den Grenzen t2 = x ∈ [0, 4] passend t ∈ [0, 2] und damit $4
e
√
x
dx
x = t2
=
dx = 2t dt
0
$2
e
√
t2
· 2t dt =
$2
et · 2t dt,
0
0
und damit das gleiche Integral wie bei Beispiel 6.3.15.1, das man nun durch partielle Integration l¨osen kann. √ Die Ersetzung x = t2 entspricht im Grunde genau der Ersetzung x = t aus Beispiel 6.3.15.1. Beispiel 6.3.15.3 631
Ziel ist die Berechnung der Fl¨ache des Einheitskreises. √ Die Funktion x → 1 − x2 beschreibt einen y Halbkreis mit Radius 1, s. Abb. 6.25. 1
Gesucht ist also 2·
$1
−1
x Abb. 6.25 HalbkreisFunktion.
1 − x2 dx.
Die Idee zur Berechnung des Integrals ist die Ausnutzung der Formel 1 − sin2 t = cos2 t, also die Substitution x = sin t = g(t).
F¨ ur die neuen Grenzen a, b muss gelten: g(a) = sin a = −1 und g(b) = sin b = 1 also z.B. a = arcsin(−1) = − π2 und b = arcsin(1) = π2 : $1
−1
π
1 − x2 dx
x = sin t
=
dx = cos t dt
$2
−π 2
π
=
$2
−π 2
1 − sin2 t · cos t dt
cos2 t
π
cos t · cos t dt =
$2
cos2 t dt.
−π 2
An Abb. 6.26 sieht man mit Symmetrie¨ uberlegungen wie in Beispiel 6.1.19.1, dass gilt
y
1
π
$2
−π 2
cos2 t dt =
1 π π ·2· ·1 = . 2 2 2
− π2
Abb. 6.26
Die Fl¨ache eines Kreises mit Radius 1 ist also gleich 2 ·
π 2
π 2 −π 2
= π.
π x 2 2 cos t dt.
6.3 Integrationstechniken
141
6.3.4 Partialbruchzerlegung Eine gebrochen rationale Funktion kann man mit Hilfe der Partialbruchzerlegung (s. Bemerkung 1.1.46) integrieren. H¨aufige Hilfsmittel dabei sind: $ 1 dx = ln |x − a|, 1) x−a $ 1 dx = arctan x, 3) x2 + 1
2) 4)
$
$
632
1 1 , dx = − (x − a)2 x−a 2x + p dx = ln |x2 + px + q|. x2 + px + q
Beispiele 6.3.16 1. Ziel ist die Bestimmung einer Stammfunktion zu f (x) = Nach Beispiel 1.1.46.1 ist
x2
x+5 . − 2x − 3
2 1 x+5 = − . x2 − 2x − 3 x−3 x+1 Mit dem Hilfsmittel 1) kann man direkt eine Stammfunktion angeben: $ $ $ 1 1 x+5 dx = 2 · dx − dx x2 − 2x − 3 x−3 x+1 = 2 · ln |x − 3| − ln |x + 1|. 2. Ziel ist die Bestimmung einer Stammfunktion zu f (x) =
x3 + x2 − 2x + 1 . x2 + 2x + 1
Mittels Polynomdivision und Partialbruchzerlegung kann man f zerlegen (s. Beispiel 1.1.45.1 und 1.1.46.2) und erh¨ alt f (x) = x − 1 −
3 1 + . x + 1 (x + 1)2
Der Polynomanteil macht beim Integrieren keine Schwierigkeit; bei den Partialbr¨ uchen helfen die Hilfsmittel 1) und 2): $ $ 3 1 + dx f (x) dx = x−1− x + 1 (x + 1)2 =
1 2 −1 x − x − ln |x + 1| + 3 · . 2 x+1
142
6 Integralrechnung
3. Ziel ist die Bestimmung einer Stammfunktion zu f (x) =
633
5x − 2 . x2 − 4x + 13
Der Nenner ist nullstellenfrei, wie man sich leicht u ¨berzeugen kann. Man versucht nun zun¨achst mit einem ln-Ausdruck entsprechend Hilfsmittel 4) den x-Anteil im Z¨ahler zu versorgen: Auf Grund der 5x im Z¨ ahler von f und wegen
ln(x2 − 4x + 13)
=
2x − 4 x2 − 4x + 13
braucht man diesen ln-Ausdruck 52 -mal: 5
2
· ln(x2 − 4x + 13)
=
2x − 4 5x − 10 5 · = 2 . 2 x2 − 4x + 13 x − 4x + 13
Eine Aufspaltung von f in f (x) =
5x − 10 + 8 5x − 10 8 = 2 + 2 2 x − 4x + 13 x − 4x + 13 x − 4x + 13
8 f¨ uhrt damit zu einem noch zu integrierenden Summanden x2 −4x+13 , den man mit der arctan-Funktion entsprechend Hilfsmittel 3) versorgt. Dazu kann man den Nenner weiter in Richtung einer Darstellung t2 +1 umformen:
also
x2 − 4x + 13 = (x − 2)2 + 9 = 9 · 19 · (x − 2)2 + 1 = 9 · ( 13 x − 32 )2 + 1 , 8 1 8 = · . x2 − 4x + 13 9 ( 13 x − 23 )2 + 1
Man kann nun durch die Substitution t = 13 x − 23 mit dem Arcustangens zu einer Stammfunktion kommen, oder auch wegen
arctan( 31 x − 32 )
=
1 1 · 3 ( 13 x − 32 )2 + 1
direkt sehen, dass 38 ·arctan( 13 x− 32 ) eine Stammfunktion f¨ ur diesen restlichen Summanden ist. Eine Stammfunktion zu f ist also $ 8 5 · ln x2 − 4x + 13 + · arctan( 13 x − 23 ). f (x) dx = 2 3
7
Vektorrechnung
Vektoren kann man sich vorstellen als Pfeile in der Ebene oder im Raum. Mit dem Begriff des Vektorraums kann man aber auch allgemeine Strukturen beschreiben; in diesem Sinne k¨onnen dann auch Polynome oder Folgen als Vektoren aufgefasst werden. Der Fokus dieses Kapitels liegt auf der Vorstellung von Vektoren als Pfeile. Allerdings wird auch der abstrakte Charakter des Vektorraumbegriffs erw¨ ahnt und kann insbesondere beim Thema Linearkombination“ mitgedacht werden. ” Die Beschreibung basiert dabei haupts¨achlich auf der Komponentendarstellung n angige Interpretation von Skalarvon Vektoren im R . Die komponentenunabh¨ und Vektorprodukt wird in entsprechenden Bemerkungen erw¨ ahnt.
7.1 Vektoren und Vektorraum Einfu ¨ hrung 7.1.1 Ein Zahlenpaar (a1 , a2 ) kann bei festgelegtem Koordinatensystem interpretiert werden
x2
(3, 4)
700
• als Punkt in der Ebene,
• als Pfeil vom Koordinatenursprung zu diesem Punkt; den Pfeil kann man auch verschieben.
(4, 2)
1 1
x1
Man spricht von Pfeilen, Tupeln oder Vektoren und nutzt f¨ ur entsprechende Variablen (1, −2) die Schreibweise a“. ” Abb. 7.1 Darstellung von VektoEine Addition zweier Vektoren geschieht ren in einem Koordinatensystem. • durch Aneinanderh¨angen der Pfeile,
• rechnerisch durch komponentenweise Addition: (a1 , a2 ) + (b1 , b2 ) = (a1 + b1 , a2 + b2 ). © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 G. Hoever, Höhere Mathematik kompakt, https://doi.org/10.1007/978-3-662-62080-9_7
143
144
7 Vektorrechnung
Man schreibt die Tupel auch in Spalten:
a1 a2
+
b1 b2
=
a 1 + b1 a 2 + b2
.
Beispiel 7.1.1.1
3 1 4 Es ist + = , s. Abb. 7.1. 4 −2 2
Eine Skalierung/Vervielfachung eines Vektors mit λ ∈ R geschieht
701
• durch eine entsprechende Verl¨angerung oder Verk¨ urzung des Pfeils, bei λ < 0 verbunden mit einer Umkehrung der Richtung, s. Abb. 7.2, • rechnerisch durch komponentenweise Multiplikation:
λ · a1 a1 = . λ· a2 λ · a2 x2
Beispiel 7.1.1.2 Verschiedene Skalierungen ergeben
1 2 2· = , 2 4
1 1.5 1.5 · = , 2 3
1 −1 (−1) · = , 2 −2
1 −0.5 (−0.5) · = . 2 −1
a1 erh¨alt man den am UrZum Vektor a = a2 sprung gespiegelten Pfeil (s. Abb. 7.3) als
−a1 . − a = −1 · a = −a2
(2, 4) (1.5, 3)
(1, 2)
1
x1
1
(−0.5, −1) (−1, −2)
Abb. 7.2 Skalierungen eines Vektors.
x2
a x1
− a Abb. 7.3 Inverser Vektor.
Bemerkungen 7.1.2 (Orts- und Verbindungsvektor) 702
1. Oft wird nicht genau zwischen einem Punkt A im Anschauungsraum und dem zugeh¨ origen Ortsvektor a unterschieden, der - bei festgelegtem Koordinatensystem - vom Koordinatenursprung zum Punkt A zeigt.
x2
A a x1
Abb. 7.4 Punkt und Ortsvektor.
−−→ 2. Abb. 7.5 verdeutlicht, dass man den Verbindungsvektor AB von Punkt A zu Punkt B mittels der zugeh¨orogen Ortsvektoren ausdr¨ ucken kann durch −−→ AB = − a + b = b − a.
7.1 Vektoren und Vektorraum
145
Beispiel 7.1.2.1 Der Verbindungsvektor von A = (1, 2) zu B = (3, 1) ist
−−→ 3 1 2 AB = − = . 1 2 −1
x2
A
1
− a
b − a B b x1
1
Abb. 7.5 Verbindungsvektor.
Bemerkungen 7.1.3 1. Bei Betrachtung von Vektoren als Pfeile (mit festgelegter Richtung und L¨ange), die man verschieben kann, ist eine Interpretation ohne Festlegung eines Koordinatensystems m¨oglich. 2. Punkte bzw. Pfeile im Raum kann man durch 3-Tupel beschreiben und entsprechend addieren und skalieren. Beispiel 7.1.3.1
703
Es ist ⎛
⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 2 1+2 3 ⎝ −1 ⎠ + ⎝ 1 ⎠ = ⎝ −1 + 1 ⎠ = ⎝ 0 ⎠ , 0 2 0+2 2 x3
⎛ ⎞ ⎛ ⎞ 2 3 1.5 · ⎝ 1 ⎠ = ⎝ 1.5 ⎠ . 2 3
x3
1
1
2
x2 −1
1
x2
1
x1
x1
Abb. 7.6 Vektoraddition und skalare Multiplikation im Raum.
Definition 7.1.4 (Vektoraddition und skalare Multiplikation) Im Rn = {(a1 , a2 , . . . , an ) | ai ∈ R} wird eine Addition und eine skalare Multiplikation mit λ ∈ R definiert durch ⎞ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎛ ⎞ ⎛ a1 b1 a 1 + b1 a1 λ · a1 ⎜ a 2 ⎟ ⎜ b2 ⎟ ⎜ a 2 + b2 ⎟ ⎜ a2 ⎟ ⎜ λ · a2 ⎟ ⎟ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎜ ⎟ ⎜ λ·⎜ . ⎟ = ⎜ . ⎟. ⎟, ⎜ .. ⎟ + ⎜ .. ⎟ = ⎜ .. ⎠ ⎝ . ⎠ ⎝ . ⎠ ⎝ ⎝ .. ⎠ ⎝ .. ⎠ . an
bn
a n + bn
an
λ · an
146
7 Vektorrechnung
Bemerkungen 7.1.5 (Schreibweisen) 1. Neben der Schreibweise a ∈ Rn“ ist auch Fettdruck ( a ∈ Rn“) oder keine ” ” besondere Kennzeichnung ( a ∈ Rn“) u ¨blich. ” In diesem Kapitel werden Vektorpfeile genutzt, da die Vorstellung von a ∈ Rn als Pfeil hilfreich ist. Im Kapitel 8 wird auf eine besondere Notation verzichtet. Es ist dann aus dem Zusammenhang klar, was gemeint ist. In Kapitel 10 und 11 wird Fettdruck genutzt, um zwischen einer mehrund eindimensionalen Variable zu unterscheiden. Der Pfeilcharakter einer mehrdimensionalen Variable ist dort wenig relevant. 2. Bei einem Vektor im R3 spricht man mal von der x-, y- und z-Komponente, mal von der x1 -, x2 - und x3 -Komponente. Entsprechend sind auch die Abbildungen mal in der einen und mal in der anderen Art beschriftet. 3. Bei der skalaren Multiplikation l¨asst man auch den Punkt weg: λ a = λ · a. 4. Statt (0, . . . , 0) ∈ Rn schreibt man auch 0 ∈ Rn oder nur 0 ∈ Rn . Im Allgemeinen bezeichnet man mit Vektoren Objekte, die man addieren und skalieren kann.
Definition 7.1.6 (Vektorraum) 704
Ein Vektorraum ist eine Menge V mit einer Addition + und einer skalaren Multiplikation · , so dass • mit a, b ∈ V, λ ∈ R auch a + b ∈ V und λ · a ∈ V ist, • bzgl. + und · die u ¨blichen Rechenregeln gelten.
Die Elemente von V heißen Vektoren.
Beispiele 7.1.7 1. Die Mengen Rn , insbesondere R2 und R3 , sind Vektorr¨ aume. Die Vorstellung von Vektoren a ∈ R2 bzw. a ∈ R3 als Pfeile in der Ebene bzw. im Raum ist auch bei anderen Vektorr¨ aumen n¨ utzlich. 2. Auch Polynome kann man addieren und skalieren: Sei p(x) = x4 + 2x − 1 und q(x) = x2 + 3.
Dann ist
(p + q)(x) = x4 + x2 + 2x + 2
und
(2p)(x) = 2x4 + 4x − 2.
Die Menge aller Polynome ist ein Vektorraum. 3. Die Menge aller stetigen Funktionen f : [0, 2π] → R ist mit (f + g)(x) = f (x) + g(x) und (λ · f )(x) = λ · f (x) ein Vektorraum.
7.2 Linearkombination
147
Bemerkung 7.1.8 zu den u¨blichen“ Rechenregeln ” F¨ ur theoretische Zwecke ist es wichtig, die u ¨blichen Rechenregeln“, denen ” die Rechenoperationen im Vektorraum gen¨ ugen m¨ ussen, exakt zu formulieren. Da es hier und im Folgenden aber auf die Anwendung der Vektorrechnung ankommt, wird in diesem Rahmen darauf verzichtet.
705
7.2 Linearkombination
Definition 7.2.1 (Linearkombination) Ist V ein Vektorraum, λk ∈ R und vk ∈ V , so heißt n
k=1
706
λk vk = λ1 v1 + λ2 v2 + · · · + λn vn
Linearkombination der vk .
Beispiele 7.2.2 1. Eine Linearkombination der Vektoren
2 2 v1 = und v2 = 2 −1 ist beispielsweise
1 2 2 = 1.5 · + (−1) · . 4 2 −1 wie man an Abb. 7.7 sieht. 2. Abb. 7.8 verdeutlicht, dass sich jeder Vektor a ∈ R2 als Linearkombination von
2 2 v1 = und v2 = −1 2 darstellen l¨asst Dies gilt auch bei anderen Vektoren v1 , v2 ∈ R2 , solange v1 und v2 nicht Vielfache voneinander sind.
x2
707 1
1 x1
Abb. 7.7 Linearkombination von Vektoren. x2 a 1
v1 1 v2
x1
Abb. 7.8 Die Vektoren 22 2 und −1 spannen den R2 auf.
3. Die Menge aller Linearkombinationen zweier Vektoren im R3 , die nicht auf einer Linie liegen, bilden eine Ebene.
148
7 Vektorrechnung
4. Betrachtet man im Vektorraum V aller stetigen Funktionen f : [0, 2π] → R die Elemente f (x) = sin(2 + x), v1 (x) = cos(x) und v2 (x) = sin(x) so liefert das Additionstheorem sin(2 + x) = sin(2) · cos(x) + cos(2) · sin(x) (s. Satz 1.1.55, 3.) eine Darstellung von f als Linearkombination von v1 und v2 mit λ1 = sin(2) und λ2 = cos(2): f = λ1 · v 1 + λ2 · v 2 .
Bemerkung 7.2.3 708
Mit drei Vektoren im R3 , die nicht in einer Ebene liegen, kann man jeden Vektor a ∈ R3 darstellen. Beispiel 7.2.3.1 Mit den kanonischen Vektoren ex = ⎛
1 0 0
, ey =
⎞ a1 ⎝ a2 ⎠ = a1 · ex + a2 · ey + a3 · ez . a3 Beispiel 7.2.3.2 Die drei Vektoren v1 = einer Ebene.
1 0 1
, v2 =
1 2 −1
0 1 0
und v3 =
und ez =
−1 0 0
0 0 1
ist
liegen nicht in
3 Will man beispielsweise den Vektor a = 2 als Linearkombination der 0 Vektoren v1 , v2 und v3 darstellen, f¨ uhrt dies auf ein lineares Gleichungssystem f¨ ur die Koeffizienten λk zu den Vektoren vk : λ2 · v2 + λ3 · v3 a = λ1 · v1 + ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 3 1 1 −1 ⇔ ⎝ 2 ⎠ = λ1 · ⎝ 0 ⎠ + λ2 · ⎝ 2 ⎠ + λ3 · ⎝ 0 ⎠ 0 1 −1 0 ⇔
3 2 0
= = =
λ1
+
λ1
−
λ2 2 · λ2 λ2
−
λ3
Aus der zweiten Gleichung folgt λ2 = 1, aus der dritten dann λ1 = 1 und aus der ersten λ3 = −1 Tats¨achlich ist ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 3 1 1 −1 ⎝ 2 ⎠ = 1 · ⎝ 0 ⎠ + 1 · ⎝ 2 ⎠ + (−1) · ⎝ 0 ⎠ . 0 1 −1 0
7.2 Linearkombination
149
Definition 7.2.4 (Erzeugendensystem) Sei V ein Vektorraum und v1 , . . . , vn ∈ V . { v1 , . . . , vn } heißt Erzeugendensystem von V
709
jedes v ∈ V l¨ asst sich als :⇔ Linearkombination von v1 , . . . , vn darstellen.
Beispiele 7.2.5 2 } ein Erzeugendensystem von 1. Beispiel 7.2.2, 2., erl¨autert, dass { 22 , −1 R2 ist. 2 0 , 1 } ist dann ein Erzeugendensystem von R2 . Auch { 22 , −1
2. Entsprechend Bemerkung 7.2.3 bilden drei Vektoren im R3 , die nicht in einer Ebene liegen, ein Erzeugendensystem f¨ ur R3 . Auch wenn man noch weitere Vektoren hinzunimmt, hat man ein Erzeugendensystem; allerdings hat man dann u ussig viele Vektoren. ¨berfl¨
Definition 7.2.6 (Lineare (Un-)Abh¨angigkeit) Sei V ein Vektorraum und v1 , . . . , vn ∈ V . v1 , . . . , vn heißen linear abh¨angig
:⇔
asst sich als ein Vektor vk l¨ Linearkombination der anderen Vektoren vi darstellen.
Ansonsten heißen die Vektoren linear unabh¨angig.
Beispiele 7.2.7 sind linear abh¨ angig, da z.B. 22 = 2 · 11 . 2 sind offensichtlich linear unabh¨ angig. Die Vektoren 22 und −1 0 2 2 2 angig, denn{ 22 , −1 } Die Vektoren 2 , −1 und 1 sind linear abh¨ 0 als Lineist ein Erzeugendensystem (s. Beispiel 7.2.5, 1.), so dass sich 1 2 darstellen l¨ asst. arkombination von 22 und −1 angig, da 00 = 0 · 21 ist. Die Vektoren 21 und 00 sind linear abh¨ 0 1 0 angig. Die Vektoren 0 , 1 und 0 sind offensichtlich linear unabh¨
1. Die Vektoren 2. 3.
4. 5.
2 2
und
0
0
1 1
1
710
150
7 Vektorrechnung
Satz 7.2.8 Die Vektoren v1 , . . . , vn sind linear unabh¨ angig genau dann, wenn eine Linearkombination von 0, also 0 = λ1 v1 + λ2 v2 + · · · + λn vn nur durch λ1 = λ2 = · · · = λn = 0 m¨oglich ist.
Bemerkungen 7.2.9 zu Satz 7.2.8 1. Man sagt auch, 0 l¨asst sich nur als triviale Linearkombination der vk darstellen. 2. Der Satz bedeutet umgekehrt, dass Vektoren linear abh¨ angig sind genau dann, wenn es eine nichttrivale Linearkombination von 0 gibt, d.h. eine Linearkombination, bei der nicht alle Skalare gleich Null sind. Die Gleichwertigkeit mit der Definition 7.2.6 sieht man wie folgt: L¨asst sich ein Vektor vk0 als Linearkombination der anderen Vektoren darstellen, erh¨alt man durch Subtraktion von vk0 direkt eine nichttrivale Darstellung von 0, da dann der Vorfaktor von vk0 gleich −1 ist. Hat man umgekehrt eine nichttriviale Linearkombination von 0, 0 = λ1 v1 + λ2 v2 + · · · + λn vn so gibt es bei der Darstellung einen Vektor vk0 mit Vorfaktor ungleich Null. Man kann dann die Gleichung durch diesen Vorfaktor teilen und nach vk0 umstellen. So erh¨alt man vk0 als Linearkombination der anderen Vektoren.
Bemerkung 7.2.10 Im Zweidimensionalen kann man zu vorgegebenen Vektoren schnell entscheiden, ob diese linear abh¨angig sind. In Kapitel 8 werden Hilfmittel beschrieben, wie man im Rm , m > 2, lineare (Un-)Abh¨angigkeit untersuchen kann: • Die Betrachtung der L¨osungsmenge zu 0 = λ1 v1 + λ2 v2 + · · · + λn vn f¨ uhrt auf ein lineares Gleichungssystem, das man mit dem Gaußschen Eleminationsverfahren analysieren kann (vgl. Abschnitt 8.2). • Man kann den Rang der Matrix untersuchen, die die Vektoren v1 , . . . , vn als Spalten besitzt (s. Defintion 8.2.8). angig, wenn die • Vektoren v1 , . . . , vn ∈ Rn sind genau dann linear unabh¨ Matrix, die diese Vektoren als Spalten besitzt, invertierbar ist (s. Satz 8.4.9), was gleichbedeutend damit ist, dass diese Matrix eine Determinante ungleich Null besitzt (s. Satz 8.5.9, 1.).
7.2 Linearkombination
151
Definition 7.2.11 (Basis) Sei V ein Vektorraum und v1 , . . . , vn ∈ V . { v1 , . . . , vn } heißt Basis von V
:⇔
{ v1 , . . . , vn } ist ein Erzeugendensystem angig. und v1 , . . . , vn sind linear unabh¨
Die Anzahl n heißt dann Dimension von V .
Beispiele 7.2.12 2 } sind Basen von R2 . 1. Die Mengen { 10 , 01 } und { 22 , −1 2. Die Menge { 22 , 11 } ist keine Basis von R2 , da sie kein Erzeugendensystem ist. 2 0 , 1 } ist keine Basis von R2 , da die Vektoren nicht 3. Die Menge { 22 , −1 linear unabh¨angig sind.
Bemerkungen 7.2.13 (Basen und ihre Eigenschaften) 1. Man kann zeigen, dass alle Basen zu einem Vektorraum gleich viele Elemente haben. Beispiel 7.2.13.1 Im Raum R2 haben alle Basen zwei Elemente. R2 ist zweidimensional. 2. Im R2 bzw. im R3 heißt die Basis ⎧⎛ ⎞ ⎛ ⎞ ⎛ ⎞⎫ + , 0 0 ⎬ ⎨ 1 1 0 ⎝0⎠,⎝1⎠,⎝0⎠ , bzw. 0 1 ⎩ ⎭ 0 0 1 auch kanonische Basis, im Rn entsprechend.
3. Bei einer Basis von V besitzt jeder Vektor aus V eine eindeutige Darstellung als Linearkombination der Basisvektoren. Diese Eigenschaft kann man auch als Definition einer Basis nutzen. 4. Es gibt Vektorr¨aume, die keine endliche Basis haben. Beispiel 7.2.13.2 Zur Menge aller Polynome ist {1, x, x2 , x3 , . . . } = {xn | n ∈ N0 } eine Basis.
711
152
7 Vektorrechnung
7.3 Skalarprodukt
Definition 7.3.1 (Skalarprodukt) 712
⎛
⎞ ⎛ ⎞ a1 b1 ⎜ ⎟ ⎜ ⎟ Zu Vektoren a, b ∈ Rn , a = ⎝ ... ⎠, b = ⎝ ... ⎠ heißt an
bn
a · b := a1 b1 + . . . + an bn
das (Standard-) Skalarprodukt.
Beispiel 7.3.2
2 −3 · = 2 · (−3) + 1 · 4 = −2. 1 4 ⎛ ⎞ ⎛ ⎞ 1 5 ⎜ 3 ⎟ ⎜ −1 ⎟ ⎟ ⎜ ⎟ 2. Es ist ⎜ ⎝ 0 ⎠ · ⎝ 2 ⎠ = 1 · 5 + 3 · (−1) + 0 · 2 + 2 · (−1) = 0. 2 −1
1. Es ist
Bemerkungen 7.3.3 zur Definition des Skalarprodukts 1. Das Skalarprodukt wird manchmal auch geschrieben als a, b. 2. Ein Skalarprodukt ⎛ ⎞ zwischen Vektoren mit unterschiedlichen Dimensionen,
3 1 z.B. · ⎝ 1 ⎠, ist nicht definiert. 2 2
Satz 7.3.4 (Eigenschaften des Skalarprodukts) 713
F¨ ur Vektoren a, b, c ∈ Rn und λ ∈ R gilt 1.
2. 3.
a · a ≥ 0 und ( a · a = 0 ⇔ a · b = b · a, ( a + b) · c = ( a · c) + ( b · c), (λ · a) · b = λ · ( a · b) = a · (λ · b).
a = 0),
Bemerkungen 7.3.5 zu den Eigenschaften des Skalarprodukts 1. Die Eigenschaften haben eigene Namen: Man sagt, das Skalarprodukt ist eine positiv definite (1.) symmetrische (2.) Bilinearform (3.).
7.3 Skalarprodukt
153
2. Wie in den reellen Zahlen gilt Punkt-vor-Strich-Rechnung. Man schreibt z.B. a · c + b · c“ statt ( a · c) + ( b · c)“. ” ” 3. Bei Satz 7.3.4, 3., haben die +“- und ·“-Zeichen unterschiedliche Bedeu” ” tungen: Das +“ in der ersten Gleichung links betrifft die Addition von ” Vektoren, das rechte +“ die Addition reeller Zahlen. Das ·“-Zeichen in ” ” der zweiten Gleichung hat sogar drei verschiedene Bedeutungen: 1. Multiplikation reeller Zahlen, 2. skalare Multiplikation (reelle Zahl · Vektor),
3. Skalarprodukt (Vektor · Vektor).
4. Die Eigenschaften kann man leicht nachrechnen, z.B. ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎞ ⎛ ⎞ ⎛ a1 c1 c1 a 1 + b1 b1 ⎜ .. ⎟ ⎜ .. ⎟ ⎜ .. ⎟ ⎟ ⎜ .. ⎟ ⎜ . . ( a + b) · c = (⎝ . ⎠ + ⎝ . ⎠) · ⎝ . ⎠ = ⎝ ⎠·⎝ . ⎠ . cn cn a n + bn bn an = (a1 + b1 ) · c1 + · · · + (an + bn ) · cn = a1 c1 + · · · + an cn + b1 c1 + · · · + bn cn ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ a1 c1 b1 c1 ⎜ .. ⎟ ⎜ .. ⎟ ⎜ .. ⎟ ⎜ .. ⎟ = ⎝ . ⎠ · ⎝ . ⎠ + ⎝ . ⎠ · ⎝ . ⎠ = a · c + b · c. an
cn
bn
cn
Beispiel 7.3.6 Im Folgenden werden die linke und rechte Seite der Gleichungen aus Satz 7.3.4, 3., jeweils beispielhaft separat berechnet. Die Gleichung ( a + b) · c = ( a · c) + ( b · c) liefert zum Beispiel ⎛⎛ ⎞ ⎛ ⎞⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 0 1 2 0 2 1 2 ⎝⎝ 3 ⎠ + ⎝ 0 ⎠⎠ · ⎝ −1 ⎠ = ⎝ 3 ⎠ · ⎝ −1 ⎠ + ⎝ 0 ⎠ · ⎝ −1 ⎠ 2 −2 3 2 3 −2 3 = ⎛ ⎞ ⎛ ⎞ 1 2 ⎝ 3 ⎠ · ⎝ −1 ⎠ 0 3
=
(0 · 2 + 3 · (−1) + 2 · 3) +(1 · 2 + 0 · (−1) + (−2) · 3)
=
=
1 · 2 + 3 · (−1) + 0 · 3
3−4
−1.
−1.
=
Die Gleichung (λ · a) · b = λ · ( a · b) wird konkret zu
=
154
7 Vektorrechnung ⎛
⎛
⎞⎞ ⎛ ⎞ ⎛⎛ ⎞ ⎛ ⎞⎞ −1 4 −1 4 ⎝2 · ⎝ 3 ⎠⎠ · ⎝ 1 ⎠ = 2 · ⎝⎝ 3 ⎠ · ⎝ 1 ⎠⎠ 0 5 0 5 = = ⎛ ⎞ ⎛ ⎞ −2 4 ⎝ 6 ⎠ · ⎝1⎠ 2 · ((−1) · 4 + 3 · 1 + 0 · 5) 0 5 = = −2 · 4 + 6 · 1 + 0 · 5 2 · (−1) = = −2. −2.
Bemerkung 7.3.7 Im Allgemeinen ist ( a · b) · c = a · ( b · c)! Beispiel 7.3.7.1 Es ist
1 2 −1 −1 −2 · · = 2· = , 0 3 2 2 4 aber
1 2 −1 1 4 · · = ·4 = . 0 3 2 0 0
Bemerkung 7.3.8 (Skalarprodukt in allgemeinen Vektorr¨aumen) Bei einem allgemeinen Vektorraum dient Satz 7.3.4 zur Definition eines Skalarprodukts: Eine Abbildung ·, ·, die zwei Vektoren eine reelle Zahl zuordnet und die Eigenschaften von Satz 7.3.4 besitzt, heißt Skalarprodukt. Beispiele 7.3.8.1 1. In Rn gibt es neben dem Standard-Skalarprodukt auch andere Skalarprodukte: Setzt man f¨ ur positive Zahlen c1 , . . . , cn zu a, b ∈ Rn a, b = c1 · a1 · b1 + . . . + cn · an · bn , so erf¨ ullt ·, · die Eigenschaften von Satz 7.3.4 und stellt ein Skalarprouber dem Standard-Skalarprodukt kann dieses dukt im Rn dar. Gegen¨ Skalarprodukt die verschiedenen Komponenten unterschiedlich gewichten.
7.3 Skalarprodukt
155
2. Im Vektorraum V der auf [0, 2π] stetigen Funktionen erf¨ ullt
f, g =
$2π
f (x) · g(x) dx
0
die Eigenschaften von Satz 7.3.4 und stellt ein Skalarprodukt in V dar. F¨ ur die Sinus-Funktion und die konstante Funktion 1 gilt dann beispielsweise sin x, 1 =
$2π
sin x · 1 dx = 0.
0
Bemerkung: Approximiert man das Integral durch eine Riemannsche ¨ Zwischensumme mit n Teilintervallen, so sieht man die Ahnlichkeit mit dem Skalarprodukt im Rn .
Definition 7.3.9 (L¨ange/Norm/Betrag eines Vektors) ⎛
⎞ a1 ⎜ ⎟ Zu einem Vektor a = ⎝ ... ⎠ ∈ Rn ist die L¨ ange definiert durch
714
an
a := | a| :=
√ a · a = a21 + · · · + a2n .
Statt L¨ange spricht man auch von der Norm oder dem Betrag des Vektors.
Bemerkung 7.3.10 Es ist also a · a = a2 .
Beispiele 7.3.11 1. Nach dem Satz des Pythagoras ist
√ - 2 - = 22 + 12 = 5 1 die gew¨ohnliche L¨ange des Vektors 7.9.
x2 1
1
2 1
, s. Abb.
x1
Abb. 7.9 Betrag eines Vektors im R2 .
156
7 Vektorrechnung
⎛ ⎞ - 2 √ √ -⎝ ⎠2. Es ist - 1 - = 22 + 12 + 32 = 14. 3
x3
Durch zweifache Anwendung des Satzes von Pythagoras sieht man, dass dies tats¨achlich die gew¨ohnliche L¨ange ist, s. Abb. 7.10: 1
x2
Die Diagonale 1 √ in der (x1 , x2 )-Ebene besitzt die L¨ange l = 22 + 12 ; damit ergibt sich die Gesamtl¨ange zu 1 x1 Abb. 7.10 Betrag eines l2 + 32 = 22 + 12 + 32 . Vektors im R3 . ⎛ ⎞ 2 -⎜ ⎟√ √ -⎜3⎟3. Es ist - ⎝ ⎠ - = 22 + 32 + 02 + 22 = 17. 0 2
Bemerkung 7.3.12 (Norm in allgemeinen Vektorr¨aumen) Entsprechend Definition 7.3.9 kann man in einem allgemeinen Vektorraum mit Skalarprodukt ·, · die L¨ange/die Norm/den Betrag eines Vektors v definieren als v, v. v := Beispiel 7.3.12.1
Im Vektorraum V der auf [0, 2π] stetigen Funktion mit Skalarprodukt 2π # f, g = f (x) · g(x) dx hat die Sinus-Funktion den Betrag 0
sin x, sin x = sin x = =
2π #
sin2 x dx
0
2π # 0
sin x · sin x dx
ahnlich wie ¨
= Beispiel 6.1.19.1
1 2
· 2π =
√
π.
Satz 7.3.13 (Eigenschaften der Norm) 715
F¨ ur Vektoren a, b ∈ Rn und λ ∈ R gilt: 1.
2. 3.
λ · a = |λ| · a, a + b ≤ a + b | a · b| ≤ a · b
(Dreiecksungleichung), (Cauchy-Schwarzsche Ungleichung).
7.3 Skalarprodukt
157
Bemerkungen 7.3.14 zu den Eigenschaften der Norm 1. Die Dreiecksungleichung ist in R2 und R3 anschaulich klar: Die Summe zweier Dreiecksseiten ist mindestens so groß wie die dritte Seite, s. Abb. 7.11
b
a a + b Abb. 7.11 Dreiecksungleichung.
2. Satz 7.3.13 gilt allgemein f¨ ur eine Norm, die entsprechend Bemerkung 7.3.12 durch ein Skalarprodukt erzeugt wird. 3. Erf¨ ullt in einem allgemeinen Vektorraum V eine Abbildung · , die jedem Vektor v ∈ V eine Zahl v ≥ 0 zuordnet, die beiden ersten Eigenschaften von Satz 7.3.13, so bezeichnet man sie auch als Norm oder Metrik. Beispiel 7.3.14.1 Im Rn sind die Summennorm · sum und die Maximum-Norm · max gebr¨auchlich, definiert durch asum = |a1 | + . . . + |an |
und
amax = max{|a1 |, . . . , |an |}.
Bemerkung 7.3.15 (Abstand zweier Punkte) Der Abstand d zweier Punkte P , Q ∈ Rn mit zugeh¨ origen Ortsvektoren p und q berechnet sich als L¨ange des Differenzvektors: d = q − p .
Wegen − a = (−1) · a = | − 1| · a = a gilt auch d = − ( q − p ) = − q + p = p − q. Beispiel 7.3.15.1 x2
Der Abstand d der Punkte P = (1, 2) und Q = (3, 1) ist
- 3 1 - = - 2 d = − 1 2 −1 √ 22 + (−1)2 = 5 = und ebenso
d = -
P d
1
Q
p q 1
x1
Abb. 7.12 Abstand zwischen zwei Punkten.
√ - −2 1 3 - = − = (−2)2 + 12 = 5. 2 1 1
In allgemeinen Vektorr¨aumen mit einer Norm · kann man entsprechend den Abstand zweier Vektoren p und q definieren als d = q − p .
716
158
7 Vektorrechnung
Satz 7.3.16 717
F¨ ur Vektoren a, b ∈ Rn gilt a · b = a · b · cos ϕ, wobei ϕ der von a und b eingeschlossene Winkel ist.
Bemerkungen 7.3.17 zu Satz 7.3.16 1. Satz 7.3.16 kann man bei gegebenen Koordinatendarstellungen zweier Vektoren dazu nutzen, den Winkel zwischen diesen Vektoren zu berechnen. Beispiel 7.3.17.1
2 −3 Zu a = ,b= ist 1 4 cos ϕ =
x2
a · b a · b
1
−2 ≈ −0.179, = √ √ 5 · 25
x1 1 Abb. 7.13 Winkel zwischen zwei Vektoren.
also ∧
ϕ ≈ arccos(−0.179) ≈ 1.75 ≈ 100◦ . 2. In R2 und R3 kann man Satz 7.3.16 aus Definition 7.3.1 des Standardskalarprodukts elementar geometrisch herleiten. Man kann Satz 7.3.16 aber auch als Koordinaten-unabh¨ angige Definition des Skalarprodukts heranziehen und dann Definition 7.3.1 als Satz formulieren. Im Rn , n ≥ 4, fehlt die Anschauung. Durch a · b = a · b · cos ϕ definiert man den Winkel ϕ zwischen a und b, entsprechend in allgemeinen Vektorr¨aumen mit Skalarprodukt. 3. An Abb. 7.14 sieht man, dass das Skalarprodukt ein Produkt ist, das nur den projizierten Beitrag des einen Vektors in Richtung des anderen Vektors ber¨ ucksichtigt. 718
ϕ cos
b
b
⎪ ⎪ ⎪ ⎭
ϕ
⎧ ⎪ ⎪ ⎪ ⎪ ⎨
ϕ a
b · co sϕ
⎪ ⎪ ⎪ ⎪ ⎩
⎫ ⎪ ⎪ ⎪ ⎬
· a
a
Abb. 7.14 Skalarprodukt als Produkt des projizierten Anteils.
7.3 Skalarprodukt
159
4. Die Cauchy-Schwarzsche Ungleichung (s. Satz 7.3.13, 3.) | a · b| ≤ a · b ist wegen | cos ϕ| ≤ 1 ein Spezialfall von Satz 7.3.16.
Gleichheit erreicht man hier bei cos ϕ = 1 bzw. cos ϕ = −1, also wenn a und b parallel sind bzw. in entgegengesetzte Richtungen zeigen ( antipar” allel“). Bei vorgegebener L¨ange wird das Skalarprodukt also maximal bzw. minimal bei parallelen bzw. antiparallelen Vektoren, wie man auch an der Interpretation entsprechend Abb. 7.14 sieht. 5. Zeigen die Vektoren a und b in die gleiche Richtung, so ist der eingeschlossene Winkel gleich 0 und man erh¨alt wegen cos 0 = 1: a · b = a · b · cos 0 = a · b. F¨ ur den Spezialfall a = b erh¨alt man wieder a · a = a2 , s. Bemerkung 7.3.10. Stehen zwei Vektoren senkrecht aufeinander (synonym: sind sie orthogonal), so ist ϕ = π2 , also cos ϕ = 0 und damit das Skalarprodukt der Vektoren gleich Null:
Definition 7.3.18 (Orthogonalit¨at) Zwei Vektoren a, b ∈ Rn heißen orthogonal ( a ⊥ b) :⇔ a · b = 0.
Beispiele 7.3.19 2
1. Die Vektoren 1 und 4 sind orthogonal:
2 −2 · = 2 · (−2) + 1 · 4 = 0. 1 4 2 1 2. Die Vektoren 3 und 0 sind orthogonal: ⎛
x2
−2
−2
1
2
−1
1 1
x1
Abb. 7.15 Orthogonale Vektoren.
⎞ ⎛ ⎞ 1 2 ⎝ 3 ⎠ · ⎝ 0 ⎠ = 1 · 2 + 3 · 0 + (−2) · 1 = 0. −2 1
5
1 3 sind orthogonal: 3. Die Vektoren 0 und −1 2
⎛ ⎞ ⎛ ⎞ 1 5 ⎜ 3 ⎟ ⎜ −1 ⎟ ⎜ ⎟·⎜ ⎟ ⎝ 0 ⎠ ⎝ 2 ⎠ = 1 · 5 + 3 · (−1) + 0 · 2 + 2 · (−1) = 0. 2 −1
719
160
7 Vektorrechnung
Bemerkung 7.3.20 (orthogonale Vektoren im R2 ) Zu einem gegebenen Vektor a erh¨alt man orthogonale a1 Vektoren b, wenn 2 a · b = 0 ist. Im R erh¨alt man konkret zu a = a2 einen orthogonalen Vektor durch Vertauschen der Komponenten und Vorzeichenwechsel in einer der beiden Komponenten:
a2 a1 · = a1 · a2 + a2 · (−a1 ) = 0. a2 −a1
Alle anderen zu a orthogonalen Vektoren sind Vielfache von Beispiel 7.3.20.1 Zum Vektor −2 findet man mit 12 einen or1 thogonalen Vektor (s. Abb. 7.16). 1 S¨amtliche Vielfache −2 von 2 sind dann auch orthogonal zu 1 :
−2 1 · λ· 1 2
−2 1 = λ· · 1 2 = λ
·
0
= 0.
a2 −a1
.
x2
1 1
x1
Abb. 7.16 Orthogonale Vektoren.
Bemerkung 7.3.21 (Orthogonalit¨at in allgemeinen Vektorr¨aumen) Entsprechend Definition 7.3.18 sagt man auch bei einem allgemeinen Vektorraum V mit Skalarprodukt ·, ·, dass zwei Vektoren v1 und v2 senkrecht bzw. orthogonal zueinander sind, wenn v1 , v2 = 0 ist. Beispiel 7.3.21.1 Im Vektorraum V der auf [0, 2π] stetigen Funktionen mit Skalarprodukt 2π # f, g = f (x) · g(x) dx sind die Sinus Funktion sin x und die konstante 0
Funktion 1 orthogonal zueinander (s. Beispiel 7.3.8.1, 2.).
Bemerkung: Man kann nachrechnen, dass auch die Funktionen sin(nx) und cos(nx) mit n ∈ N alle paarweise orthogonal zueinander sind. Dies ist die Grundlage der sogenannten Fouriertheorie, bei der Funktionen f ∈ V als Linearkombinationen dieser Funktionen angen¨ ahert werden.
7.4 Vektorprodukt
161
7.4 Vektorprodukt Zu zwei linear unabh¨angigen Vektoren im R3 gibt es eine eindeutige Richtung, die zu den beiden Vektoren orthogonal ist. Einen Vektor in diese Richtung kann man direkt angeben:
Definition 7.4.1 (Vektor-/Kreuzprodukt) Zu zwei Vektoren a, b ∈ R3 , a = ⎛
⎞ a2 b3 − a3 b2 a × b := ⎝ a3 b1 − a1 b3 ⎠ a 1 b2 − a 2 b1
a1 a2 a3
, b =
b1 b2 b3
, ist
720
721
das Vektor- oder Kreuzprodukt.
722
Bemerkungen 7.4.2 zur Definition des Vektor-/Kreuzprodukts 1. Das Skalarprodukt ist in jedem Raum Rn mit beliebigem n definiert. Das Vektorprodukt hingegen gibt es nur im R3 . 2. Die Berechnung kann man sich beispielsweise auf die folgenden zwei Weisen merken: a) Zyklische Fortsetzung der Vektoren und kreuzweise Produkt-DifferenzBildung, s. Abb. 7.17, links. b) Kreuzweise Produkt-Differenz-Bildung bei Ausblenden einer Komponente und −“ in der Mitte, s. Abb. 7.17, rechts. ” b1 a1 a 2 b3 − a 3 b2 b2 a2 b3 a3 a 2 b3 − a 3 b2 a1 b1 b1 a1 a2 b2 a 3 b1 − a 1 b3 −(a1 b3 − a3 b1 ) b2 a2 a 1 b2 − a 2 b1 a3 b3 b3 a3 a1 b1 b2 a2 b1 a1 a 1 b2 − a 2 b1 b2 a2 b3 a3 Abb. 7.17 Merkregeln zur Bildung des Kreuzprodukts.
162
7 Vektorrechnung
Beispiele 7.4.3 Mit zyklischer Fortsetzung und der Berechnungsmethode von Bemerkung 7.4.2, 2.a) ist ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 3 2 0 · 0 − (−1) · 1 1 ⎝ 0 ⎠ × ⎝ 1 ⎠ = ⎝ −1 · 2 − 3 · 0 ⎠ = ⎝ −2 ⎠ . −1 0 3·1 − 0·2 3 3 2 0 1 Mit der Berechnungsmethode von Bemerkung 7.4.2, 2.b) ist ⎛ ⎞ ⎛ ⎞ ⎞ ⎛ ⎞ ⎛ 5 −1 −6 0·3−3·2 ⎝ 0 ⎠ × ⎝ 2 ⎠ = ⎝ − 5 · 3 − 3 · (−1) ⎠ = ⎝ −18 ⎠ . 10 3 3 5 · 2 − 0 · (−1)
Satz 7.4.4 (Eigenschaften des Vektorprodukts) 723
F¨ ur Vektoren a, b ∈ R3 und c = a × b gilt:
1. Der Vektor c ist orthogonal zu den Vektoren a und b. 2. Die drei Vektoren a, b und c bilden ein Rechtssystem.
3. Ist ϕ der von den Vektoren a und b eingeschlossene Winkel, so gilt 724
c = a · b · sin ϕ.
Bemerkungen 7.4.5 zu den Eigenschaften des Vektorprodukts 1. Rechtssystem“ bedeutet, dass a, b und c in ” Richtungen wie Daumen, Zeige- und Mittelfinger der rechten Hand zeigen. Beispiel 7.4.5.1
x3 c x2 b
2
3 0 Die Vektoren a = , b = 1 und −1 0 1 c = a×b = −2 aus Beispiel 7.4.3 bilden 3 ein Rechtssystem, s. Abb. 7.18.
x1 a Abb. 7.18 Veranschaulichung des Kreuzprodukts.
2. Durch die Eigenschaften aus Satz 7.4.4 ist der Vektor c = a × b in Abh¨ angigkeit von a und b eindeutig festgelegt. Man kann den Satz daher auch als Koordinaten-unabh¨angige Definition des Vektorprodukts heranziehen und dann Definition 7.4.1 als Satz formulieren.
7.4 Vektorprodukt
163
3. Der Wert a × b = a · b · sin ϕ
b
ist genau der Fl¨acheninhalt des von a und b aufgespannten Parallelogramms, denn dessen Fl¨ache berechnet sich als Grundseite mal H¨ohe, wobei b · sin ϕ der H¨ohe entspricht, wenn man a als Grundseite ansieht, s. Abb. 7.19. Entsprechend Abb. 7.20 ist die Fl¨ache AΔ eines Dreiecks, das a und b als Kanten besitzt, gleich der H¨alfte der entsprechenden Parallelogrammfl¨ache, also AΔ
1 1 = a · b · sin ϕ = a × b. 2 2
b · sin ϕ
ϕ
a Abb. 7.19 Das von a und b aufgespannte Parallelogramm.
b AΔ a Abb. 7.20 Dreieck mit Kanten a und b.
4. Bei vorgegebener L¨ange von a und b wird a × b maximal, wenn a und b orthogonal sind. Sind a und b parallel, so ist a × b = 0.
Beispiel 7.4.6 Zu Vektoren a = 7.4.3).
3 0 −1
und b =
2 1 0
ist c := a × b =
1 −2 3
(s. Beispiel
Der Vektor c steht tats¨achlich senkrecht auf a und b (s. auch Abb. 7.18), denn es gilt ⎛ ⎞ ⎛ ⎞ 3 1 a · c = ⎝ 0 ⎠ · ⎝ −2 ⎠ = 3 + 0 − 3 = 0, −1 3 ⎛ ⎞ ⎛ ⎞ 2 1 b · c = ⎝ 1 ⎠ · ⎝ −2 ⎠ = 2 − 2 + 0 = 0. 0 3 F¨ ur den von a und b eingeschlossenen Winkel ϕ gilt cos ϕ =
3 · 2 + 0 · 1 + (−1) · 0 a · b √ = 2 + 02 + (−1)2 · 22 + 12 + 02 3 a · b 6 √ . = √ 10 · 5
Damit kann man die Formel von Satz 7.4.4, 2., verifizieren: Es ist 62 36 14 2 = = 1 − cos ϕ = 1− 1− sin ϕ = 10 · 5 50 50
164
7 Vektorrechnung
und damit tats¨achlich
√ 14 = 10 · 5 · 14 50 12 + (−2)2 + 32 = a × b. =
a · b · sin ϕ =
√
√
Satz 7.4.7 725
F¨ ur Vektoren a, b, c ∈ R3 und λ ∈ R gilt: 1. a × b = −( b × a), 2. 3.
(λ · a) × b = λ · ( a × b) = a × (λ · b), a × ( b + c) = ( a × b) + ( a × c).
Bemerkungen 7.4.8 1. Man nutzt hier wieder Punkt“-vor-Strich-Rechnung und schreibt a × b + ” ” a × c“ statt ( a × b) + ( a × c)“. ” 2. Im Allgemeinen ist ( a × b) × c = a × ( b × c)!
7.5 Geraden und Ebenen 7.5.1 Geraden
Definition 7.5.1 (Gerade) 726
727
Durch einen Punkt P und eine Richtung v wird eine Gerade g festgelegt: g = { p + λ v | λ ∈ R}.
Bemerkungen 7.5.2 zur Definition einer Geraden 1. Die Schreibweise { p + λ v | λ ∈ R} liest man als Die Menge der p + λ v , f¨ ur ” die gilt: λ ∈ R“. Man betrachtet also alle entsprechenden Vektoren, die man bei Einsetzen beliebiger λ-Werte erh¨alt. 2. Der Vektor p in der Definition heißt Ortsvektor, v Richtungsvektor.
7.5 Geraden und Ebenen
165
3. Die Geraden-Definition im R2 und im R3 ist anschaulich (s. Beispiel 7.5.3). Auch in allgemeinen Vektorr¨aumen kann man eine entsprechende Menge g als Gerade bezeichnen.
Beispiele 7.5.3 1. Die Gerade g1 im R2 durch den 2 Punkt wird P = (2, 2) mit Richtung v = −1 beschrieben durch +
, 2 2 g1 = +λ λ∈R , 2 −1 s. Abb. 7.21. Geradenpunkte erh¨alt man beispielsweise zu λ = 0.5 bzw. λ = −1 als
2 2 3 + 0.5 · = bzw. 2 −1 1.5
2. Im R3 wird durch ⎧⎛ ⎞ ⎫ ⎛ ⎞ 3 ⎨ 1 ⎬ ⎝ 1 ⎠ + λ ⎝ 1 ⎠ λ ∈ R g2 = ⎩ ⎭ 2 −1
eine Gerade beschrieben, die durch den Punkt P = (1, 1, 2) verl¨auft und die Rich3 tung 1 besitzt, s. Abb. 7.22. −1
x2 g1 P
v
p
1
x1 1 Abb. 7.21 Vektorielle Darstellung einer Geraden im R2 .
2 2 0 + (−1) · = . 2 −1 3 z
g2
P v p
1
y
2 1
x Abb. 7.22 Vektorielle Darstellung einer Geraden im R3 .
Bemerkungen 7.5.4 1. Orts- und Richtungsvektoren einer Geraden g sind nicht eindeutig bestimmt, denn jedes q ∈ g kann als Ortsvektor dienen, und ist v Richtungsvektor zu g, so auch jedes w = α v mit α = 0. Beispiel 7.5.4.1 Die Gerade g1 aus Beispiel 0 7.5.3 kann mit dem Ortsvektor 3 3 und dem 2 Richtungsvektor −1.5 = 1.5 · −1 auch beschrieben werden als +
, 0 3 g1 = +λ λ∈R , 3 −1.5 s. Abb. 7.23.
x2 w q 1 x1 1 Abb. 7.23 Andere Darstellung von g1 .
166
728
7 Vektorrechnung
2. Will man die Gerade g, die durch zwei vorgegebene Punkte P1 und P2 f¨ uhrt, bestimmen, so kann man einen der Punkte als Ortsvektor und den Differenzvektor v = p 2 − p 1 als Richtungsvektor nutzen. Beispiel 7.5.4.2 x2
Die Gerade g durch die Punkte P1 = (1, −1)
und
P2 = (4, 1)
(s. Abb. 7.24) kann mit dem Differenzvektor
4 1 3 v = − = 1 −1 2 beschrieben werden durch +
, 1 3 g = +λ λ∈R . −1 2
P2
1
g
v x1
1 P1
Abb. 7.24 Gerade durch P1 und P2 .
3. Will man testen, ob ein Punkt Q auf einer Geraden g = { p + λ v | λ ∈ R} liegt, muss man untersuchen, ob es ein λ ∈ R gibt mit q = p + λ v . Beispiel 7.5.4.3 Betrachtet wird die Gerade +
, 2 2 g= +λ λ∈R . 2 −1 Liegt Q1 = (5, 0.5) auf g?
Die Gleichung
5 2 2 = +λ 0.5 2 −1
x2
1
g
Q2
Q1
x1 1 Abb. 7.25 Q1 liegt auf der Geraden, Q2 nicht.
besitzt die L¨osung λ = 1.5, also liegt Q1 auf g. Liegt Q2 = (3, 1) auf g? Bei der Gleichung
3 2 2 = +λ 1 2 −1 erzwingt die erste Komponente λ = 21 , was bei der zweiten Komponente / g. aber zu einem Widerspruch f¨ uhrt. Also ist Q2 ∈
7.5 Geraden und Ebenen
167
Bemerkung 7.5.5 (Lineare Funktion und Gerade im R2 ) 1. Im Zweidimensionalen kann man eine Gerade als Funktionsgraf einer linearen Funktion y = mx + a
y 729 m
a 1
x
oder in vektorieller Form g = { p + λ v | λ ∈ R}
Abb. 7.26 Gerade.
auffassen. Wie h¨angen diese beiden Darstellungen miteinander zusammen? Durch 1 Betrachtung des Steigungsdreiecks (s. Abb. 7.26) sieht man, dass a besagt, m ein Richtungsvektor der Geraden ist. Der y-Achsenabschnitt dass der Punkt (0, a) auf der Geraden liegt. Damit kann a0 als Ortsvektor dienen. Also ist +
, y 0 1 g = +λ λ∈R . a m 1
Beispiel 7.5.5.1
Den Funktionsgrafen zu y = 2x − 1 (s. Abb. 7.27) kann man beschreiben durch +
, 0 1 g = +λ λ∈R . −1 2
x
1
Abb. 7.27 Gerade mit Ortsund Richtungsvektor.
2. Um umgekehrt von einer vektoriellen Beschreibung auf eine lineare Funktion zu kommen, kann man nutzen, dass die Beschreibung p + λ v genau ¨ λ erh¨ alt man so aussagt, welche Punkte xy auf der Geraden liegen. Uber die Abh¨angigkeit von y bzgl. x. Beispiel 7.5.5.2 Auf der Geraden +
, 2 2 g = +λ λ∈R 2 −1
(s. Abb. 7.28) liegen genau die Punkte xy , f¨ ur die gilt
x 2 2 x = 2 + 2λ (I) = +λ ⇔ . y 2 −1 y = 2 − λ (II)
Aus (I) folgt 2λ = x − 2, also λ = 12 x − 1.
In (II) eingesetzt ergibt sich y = 2 − 12 x − 1 = 2 − 21 x + 1 = − 21 x + 3.
168
7 Vektorrechnung
Alternativ kann man den Richtungsvektor so skalieren, dass die x-Komponente gleich 1 ist; dann gibt die y-Komponente die Steigung m an (s. Abb. 7.28). Mit Hilfe des Ortsvektors als Punkt auf der Geraden und der Punkt-Steigungs-Formel (s. Satz 1.1.6) kann man dann die Geradengleichung aufstellen. Beispiel 7.5.5.3 (Fortsetzung von Beispiel 7.5.5.2) 2 1 2 ist auch 12 −1 = −0.5 Mit −1 y ein Richtungsvektor, d.h. die Steigung ist m = −0.5. Da (2, 2) auf der Geraden liegt, erh¨alt man mit der Punkt1 Steigungs-Formel y = 2 + (−0.5) · (x − 2) = 2 − 12 x + 1
= − 12 x + 3.
3. Eine Gerade g, die parallel zur y-Achse ist, kann man nicht durch eine Funktion in Abh¨angigkeit von x beschreiben, sondern nur in vektorieller Form; ein m¨oglicher Richtungsvektor ist 01 , s. Abb. 7.29.
4. Zwei Geraden stehen senkrecht aufeinander, wenn deren Richtungsvektoren senkrecht zueinander sind. Besitzen die Geraden dieStei- 1 gungen 1m1 bzw. m2 , so sind nach 1. m1 bzw. m2 Richtungsvektoren der Geraden. Senkrecht stehen die Geraden also genau dann, wenn
1 1 · = 1 + m1 · m2 , 0 = m2 m1
wenn also m1 · m2 = −1 ist (vgl. Bemerkung 1.1.10).
x 1 Abb. 7.28 Gerade mit skaliertem Richtungsvektor. y g
x Abb. 7.29 Zur y-Achse parallele Gerade.
y
1 1
x
Abb. 7.30 Zueinander senkrechte Geraden.
7.5 Geraden und Ebenen
169
7.5.2 Ebenen Die Menge aller Linearkombinationen zweier nicht paralleler Vektoren v1 und v2 im R3 ausgehend vom Ursprung spannen eine Ebene durch den Ursprung auf:
z y
v1
v2
x
EUrsprung = {α v1 + β v2 | α, β ∈ R} (vgl. Beispiel 7.2.2, 3.). Eine Ebene durch einen beliebigen Punkt P ∈ R3 erh¨alt man durch Verschiebung:
Abb. 7.31 Ebene durch den Ursprung.
Definition 7.5.6 (Parameterdarstellung einer Ebene) Durch einen Punkt P und zwei nicht-parallele Richtungen v1 und v2 wird eine Ebene E festgelegt:
730
E = { p + α v1 + β v2 | α, β ∈ R}.
Bemerkungen 7.5.7 zur Parameterdarstellung einer Ebene 1. Diese Darstellung nennt man wegen der freien Parameter α und β auch Parameterdarstellung. Den Vektor p nennt man Ortsvektor und v1 , v2 Richtungsvektoren. Diese Vektoren sind wie bei den Geraden nicht eindeutig bestimmt.
z v1
y
v2
P
p
x
Abb. 7.32 Ebene durch P .
2. Eine Ebene ist durch drei Punkte, die nicht auf einer Geraden liegen, eindeutig festgelegt. F¨ ur eine Parameterdarstellung der Ebene kann man einen Punkt als Ortsvektor und zwei Differenzvektoren zwischen den Punkten als Richtungsvektoren w¨ahlen. Beispiel 7.5.7.1 Zu der Ebene durch die Punkte ⎛ ⎞ ⎛ ⎞ 4 1 P1 = ⎝ 1 ⎠ , P2 = ⎝ 1 ⎠ 1 2 ⎛ ⎞ 3 und P3 = ⎝ 2 ⎠ . 2
z P1
v2
2 1
1 1
2y
2
v1
P3 P2
x 4 Abb. 7.33 Ebene durch drei Punkte. 3
731
170
7 Vektorrechnung erh¨alt man beispielsweise Richtungsvektoren durch ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 4 1 3 v1 = p 2 − p 1 = ⎝ 1 ⎠ − ⎝ 1 ⎠ = ⎝ 0 ⎠ , 1 2 −1 ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 3 1 2 v2 = p 3 − p 1 = ⎝ 2 ⎠ − ⎝ 1 ⎠ = ⎝ 1 ⎠ . 2 2 0 Damit ergibt sich eine Parameterdarstellung
E = { p 1 + α v1 + β v2 | α, β ∈ R} ⎧⎛ ⎞ ⎫ ⎛ ⎞ ⎛ ⎞ 3 2 ⎨ 1 ⎬ ⎝ 1 ⎠ + α ⎝ 0 ⎠ + β ⎝ 1 ⎠ α, β ∈ R . = ⎩ ⎭ 2 −1 0
Zu einer Ebene E im R3 gibt es eine eindeutige senkrechte Richtung. Ein Vektor in dieser Richtung heißt Normalenvektor zu E. 732
Durch einen Normalenvektor n ∈ R3 und einen Punkt p ∈ R3 ist eine Ebene E eindeutig bestimmt:
Satz 7.5.8 (Normalendarstellung einer Ebene) Die Ebene E durch den Punkt P senkrecht zum Normalenvektor n wird beschrieben durch die Normalendarstellung E = { x | ( x − p ) ⊥ n} = { x | x · n = p · n}.
Bemerkungen 7.5.9 zur Normalendarstellung 1. Satz 7.5.8 charakterisiert zun¨achst die Punkte der Ebene E dadurch, dass deren Differenzvektor zu p senkrecht zu n steht: E = { x | ( x − p ) ⊥ n}. (Die Mengen-Schreibweise liest man Die Menge der x, f¨ ur die gilt: x − p ” steht senkrecht auf n“.) Die Orthogonalit¨at kann man durch das Skalarprodukt ausdr¨ ucken: ( x − p ) ⊥ n
⇔
( x − p ) · n = 0
⇔
x · n = p · n.
2. Hat die Ebene E die Richtungsvektoren v1 und v2 , so steht n = v1 × v2 senkrecht auf v1 und v2 , ist also ein Normalenvektor. 733
7.5 Geraden und Ebenen
171
Beispiel 7.5.9.1
x3
Ein Normalenvektor zur Ebene E aus Beispiel 7.5.7.1 ist n = v1 × v2 ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 3 2 1 = ⎝ 0 ⎠ × ⎝ 1 ⎠ = ⎝ −2 ⎠ . −1 0 3
Damit ist
E =
=
=
=
n v2 1
x2 1
v1
1 x1 Abb. 7.34 Normalenvektor.
⎧ ⎛ ⎞ ⎛ ⎞⎫ 1 1 ⎬ ⎨ x ( x − ⎝ 1 ⎠) ⊥ ⎝ −2 ⎠ ⎩ ⎭ 2 3 ⎧ ⎫ ⎛ ⎞ ⎛ ⎞ 1 1 ⎨ ⎬ x ( x − ⎝ 1 ⎠) · ⎝ −2 ⎠ = 0 ⎩ ⎭ 2 3 ⎫ ⎧ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ 1 1 1 ⎬ ⎨ x x · ⎝ −2 ⎠ = ⎝ 1 ⎠ · ⎝ −2 ⎠ = 5 ⎭ ⎩ 3 3 2 ⎫ ⎧⎛ ⎞ ⎬ ⎨ x1 ⎝ x2 ⎠ x1 − 2x2 + 3x3 = 5 . ⎭ ⎩ x3
3. Im R3 erh¨alt man aus der Normalendarstellung in Komponentenschreibweise allgemein die Darstellung ⎫ ⎧⎛ ⎞ ⎬ ⎨ x1 E = ⎝ x2 ⎠ n1 x1 + n2 x2 + n3 x3 = r . ⎭ ⎩ x3
Diese Darstellung wird auch Komponentendarstellung genannt. Dabei ist n1 n n = n2 ein Normalenvektor zu E und r = p · n. 3
4. Ist n = 1, so heißt die Darstellung auch Hessesche Normalendarstellung. 5. Durch E = { x | x · n = r} kann man in allgemeinen Vektorr¨aumen eine Hyperebene definieren. Durch die Normalenbedingung x · n = r wird die Dimension um Eins reduziert, im R3 erh¨alt man eine zweidimensionale Ebene. Im R2 kann man so eine Gerade in Normalendarstellung darstellen.
x2
g 734
1 x1 1 Abb. 7.35 Normalendarstellung einer Geraden.
172
7 Vektorrechnung
Beispiel 7.5.9.2 Eine zur Gerade +
, 2 2 g = +λ |λ ∈ R 2 −1
1 senkrechte Richtung, 2 also ein Normalenvektor, ist 2 , (s. Abb. 7.35). Mit dem Punkt 2 ∈ g ist dann eine Normalendarstellung +
, 2 1 2 g = x ∈ R | ( x − )⊥ 2 2 + , x1 1 2 1 x1 | · = · = 2 2 2 x2 x2 , + x1 | x1 + 2x2 = 6 . = x2
Durch die Umformung der Bedingung zu x2 = 3 − 12 x1 erh¨ alt man die Darstellung der Geraden als Funktion in Abh¨ angigkeit von x1 (vgl. auch Beispiel 7.5.5.2 und Beispiel 7.5.5.3).
7.5.3 Schnittpunkte Schnittpunkte zwischen Geraden und Ebenen k¨ onnen auf verschiedene Weisen berechnet werden: 1. bei gegebenen Parameterdarstellungen durch Gleichsetzen, 2. bei einer Parameter- und einer Normalendarstellung durch Einsetzen, 3. bei gegebenen Normalendarstellungen durch ein Gleichungssystem.
Beispiel 7.5.10 735
736
Zur Berechnung des Schnittpunkts der beiden Geraden +
, 0 1 +λ λ∈R , g1 = 2 2 +
, 3 −3 +λ λ∈R g2 = −2 −1
kann man die beiden Parameterdarstellungen gleichsetzen, muss dabei aber beachten, dass der Schnittpunkt durch verschiedene Parameterwerte λ1 bzw. λ2 bei g1 bzw. g2 erreicht werden kann:
y
g1
1
1
x
g2
Abb. 7.36 Schnittpunkt zweier Geraden.
7.5 Geraden und Ebenen
173
0 1 3 −3 + λ1 = + λ2 . 2 2 −2 −1 Damit erh¨alt man ein Gleichungssystem f¨ ur λ1 und λ2 : λ1 = 3 − 3λ2 2 + 2λ1 = −2 − λ2
⇔
λ1 + 3λ2 = 3 2λ1 + λ2 = −4.
(I) (II)
Durch (II) − 2 · (I) erh¨alt man −5λ2 = −10, also λ2 = 2.
Aus (I) erh¨alt man daraus λ1 = 3 − 3λ2 = 3 − 3 · 2 = −3.
Den Schnittpunkt kann man nun durch λ1 eingesetzt in g1 oder durch λ2 eingesetzt in g2 berechnen:
0 1 −3 3 −3 + (−3) · = = +2· . 2 2 −4 −2 −1
Beispiel 7.5.11 Gesucht ist der Schnittpunkt der Geraden ⎧⎛ ⎫ ⎞ ⎛ ⎞ 1 ⎨ 0 ⎬ ⎝ 0 ⎠ + λ ⎝ 0 ⎠ λ ∈ R g = ⎩ ⎭ −1 1
mit der Ebene (vgl. Beispiel 7.5.7.1 und 7.5.9.1) ⎧⎛ ⎞ ⎞ ⎛ ⎛ ⎞ 3 2 ⎨ 1 ⎝ 1 ⎠ + α ⎝ 0 ⎠ + β ⎝ 1 ⎠ α, β E = ⎩ 2 −1 0 ⎫ ⎧⎛ ⎞ ⎬ ⎨ x1 ⎝ x2 ⎠ x1 − 2x2 + 3x3 = 5 = = ⎭ ⎩ x3
737
⎫ ⎬
∈R
⎭ ⎧ ⎫ ⎛ ⎞ 1 ⎨ ⎬ x x · ⎝ −2 ⎠ = 5 . ⎩ ⎭ 3
1. M¨oglichkeit (Gleichsetzen der Parameterdarstellungen):
Durch Gleichsetzen der Parameterdarstellungen erh¨ alt man ein Gleichungssystem f¨ ur die Parameter: ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 3 2 0 1 ⎝1⎠ + α⎝ 0 ⎠ + β ⎝1⎠ = ⎝ 0 ⎠ + λ⎝0⎠ 2 −1 0 −1 1 ⇒
3α + 2β − λ = −1 + β = −1 −α − λ = −3
(I) (II) (III)
Aus der Gleichung (II) erh¨alt man β = −1; in Gleichung (I) eingesetzt, ergibt sich 3α − λ = 1. Subtrahiert man hiervon Gleichung (III), erh¨ alt
174
7 Vektorrechnung man 4α = 4, also α = 1, und dann aus Gleichung (III): λ = 3 − α = 3 − 1 = 2.
Die L¨osung ist also α = 1, β = −1 und λ = 2. Den Schnittpunkt erh¨ alt man nun mit diesen Parameterwerten einerseits u ¨ber die Ebenendarstellung oder andererseits u ¨ber die Geradendarstellung ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 3 2 2 0 1 ⎝ 1 ⎠ + 1 · ⎝ 0 ⎠ + (−1) · ⎝ 1 ⎠ = ⎝ 0 ⎠ = ⎝ 0 ⎠ + 2 · ⎝ 0 ⎠ . 2 −1 0 1 −1 1
2. M¨oglichkeit (Einsetzen der Geradendarstellung in die Normalendarstellung der Ebene): 738
Der allgemeine Geradenpunkt hat die Form ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 0 1 λ x1 ⎝ x2 ⎠ = ⎝ 0 ⎠ + λ ⎝ 0 ⎠ = ⎝ 0 ⎠ . x3 −1 1 −1 + λ
Dies eingesetzt in die Normalendarstellung der Ebene ergibt
⇔
λ − 2 · 0 + 3 · (−1 + λ) = 5 − 3 + 4λ = 5 ⇔ 4λ = 8
⇔
λ = 2. 0 1 Man erh¨alt dies auch, wenn man die Darstellung x = 0 + λ 0 in 1 1 −1 die vektoriell dargestellte Normalenbedingung x · −2 = 5 einsetzt: 3
⎛⎛
⇔ ⇔
⎞
⎛ ⎞⎞ ⎛ ⎞ 0 1 1 ⎝⎝ 0 ⎠ + λ ⎝ 0 ⎠⎠ · ⎝ −2 ⎠ = 5 −1 1 3 ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 0 1 1 1 ⎝ 0 ⎠ · ⎝ −2 ⎠ + λ ⎝ 0 ⎠ · ⎝ −2 ⎠ = 5 −1 3 1 3 −3+λ·4 = 5
⇔
4λ = 8
⇔
λ = 2.
Damit ist der Schnittpunkt ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 0 1 2 ⎝ 0 ⎠ + 2 · ⎝0⎠ = ⎝0⎠. −1 1 1 uhrt, so g¨ abe es H¨atten die Gleichungssysteme zu einem Widerspruch gef¨ keinen Schnittpunkt, d.h., die Gerade verliefe oberhalb oder unterhalb der Ebene parallel zu ihr. W¨are die L¨osung mehrdeutig, so l¨ age die Gerade innerhalb der Ebene.
7.5 Geraden und Ebenen
175
onnen sie auch Im R2 schneiden sich zwei nicht-parallele Geraden stets. Im R3 k¨ windschief liegen, d.h. keinen gemeinsamen Schnittpunkt haben.
Beispiel 7.5.12 Die Suche nach einem Schnittpunkt der Geraden ⎧⎛ ⎞ ⎫ ⎛ ⎞ 1 ⎨ 0 ⎬ ⎝0⎠ + λ⎝ 0 ⎠ λ ∈ R , g1 = ⎩ ⎭ 0 −2 ⎫ ⎧⎛ ⎞ ⎛ ⎞ 0 ⎬ ⎨ 2 ⎝ 3 ⎠ + μ⎝2⎠ μ ∈ R . g2 = ⎭ ⎩ −1 4 f¨ uhrt zum Gleichungssystem
⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 0 1 2 0 ⎝0⎠ + λ⎝ 0 ⎠ = ⎝ 3 ⎠ + μ⎝2⎠ 0 −2 −1 4
z
y
1 1 1
x
Abb. 7.37 Zwei zueinander windschiefe Geraden.
⇔
λ = 2 0 = 3 + 2μ . −2λ = −1 + 4μ
Aus den ersten beiden Komponenten folgt λ = 2 und μ = −1.5; dies f¨ uhrt in die dritte Komponente eingesetzt zu −2 · 2 = −1 + 4 · (−1.5)
⇔
−4 = −7,
einem Widerspruch. Also gibt es keinen gemeinsamen Schnittpunkt.
Bemerkung 7.5.13 (Schnitt zweier Ebenen) alt man u Schneidet man zwei Ebenen im R3 erh¨ ¨blicherweise eine Gerade, allerdings k¨onnte der Schnitt auch leer sein (die Ebenen sind parallel und versetzt zueinander) oder die beiden Ebenen sind identisch. Die Schnittmenge kann man durch alle drei Methoden berechnen: 1. Das Gleichsetzen der Parameterdarstellungen f¨ uhrt auf ein Gleichungssystem mit drei Gleichungen f¨ ur die insgesamt vier Parameter der beiden Ebenen. 2. Das Einsetzen einer Parameterdarstellung der einen in die Normalendarstellung der anderen Ebene f¨ uhrt zu einer Gleichung f¨ ur die beiden Parameter der einen Ebene. 3. Zwei Normalendarstellungen f¨ uhren zu einem Gleichungssystem mit zwei Gleichungen f¨ ur die drei Komponenten. Man hat also jeweils eine Unbekannte mehr als Gleichungen, was u ¨blicherweise zu einer L¨osungsgeraden f¨ uhrt (s. Abschnitt 8.2). Allerdings k¨ onnte es auch einen Widerspruch geben, so dass der Schnitt leer ist, oder sogar mehr Redundanz, so dass man darauf schließen kann, dass die Ebenen identisch sind.
739
176
7 Vektorrechnung
7.5.4 Abst¨ ande Zur Bestimmung des Abstands zwischen Punkten, Geraden und Ebenen kann man orthogonale Verbindungen suchen und deren L¨ ange bestimmen. 740
741
Beispiel 7.5.14 Um den Abstand d des Punktes von der Geraden ⎧⎛ ⎞ ⎛ ⎞ 2 ⎨ 0 ⎝ −1 ⎠ + λ ⎝ 1 ⎠ g = ⎩ 2 −2
Q =
3 2 2
⎫ ⎬
λ ∈ R
⎭
zu bestimmen, kann man den Punkt L auf der Geraden suchen, f¨ ur den der Verbin−→ dungsvektor LQ = q − l zu Q senkrecht zur Geraden g, also senkrecht zum Richtungsvektor von g ist (s. Abb. 7.38):
z Q y
1 −1
d 1
x
L g
Abb. 7.38 Abstand von Q zu g.
⎞ ⎛⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎞ ⎛ 2 3 0 2 ⎝⎝ 2 ⎠ − ⎝ −1 ⎠ + λ ⎝ 1 ⎠ ⎠ ⊥ ⎝ 1 ⎠ −2 2 2 −2 ⎛⎛ ⎞ ⎛ ⎞ ⎛ ⎞⎞ ⎛ ⎞ 3 0 2 2 ⇔ 0 = ⎝⎝ 2 ⎠ − ⎝ −1 ⎠ − λ ⎝ 1 ⎠⎠ · ⎝ 1 ⎠ 2 2 −2 −2 ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 3 2 2 2 = ⎝3⎠ · ⎝ 1 ⎠ − λ⎝ 1 ⎠ · ⎝ 1 ⎠ 0 −2 −2 −2 = 9 − 9λ ⇔ λ = 1.
Also ist ⎛
⎞ ⎛ ⎞ ⎛ ⎞ 0 2 2 l = ⎝ −1 ⎠ + 1 · ⎝ 1 ⎠ = ⎝ 0 ⎠ 2 −2 0
und damit gilt f¨ ur den Abstand ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 2 - 3 - 1 √ d = q − l = - ⎝ 2 ⎠ − ⎝ 0 ⎠ - = - ⎝ 2 ⎠ - = 9 = 3. 2 0 2
7.5 Geraden und Ebenen
177
Satz 7.5.15 (Abstandsformeln) 1. F¨ ur den Abstand d eines Punktes Q zu einer Ebene, die durch den Punkt P f¨ uhrt und den Normalenvektor n besitzt, gilt d =
|( p − q) · n| . n
742
2. F¨ ur den Abstand d zweier nicht paralleler Geraden g1 = { p1 +λ· v1 |λ ∈ p2 + λ · v2 |λ ∈ R} im R3 gilt R} und g2 = { d =
743
|( p2 − p 1 ) · ( v1 × v2 )| . v1 × v2
3. F¨ ur den Abstand d eines Punktes Q zu einer Geraden g = { p +λ· v |λ ∈ R} im R3 gilt d =
744
v × ( q − p ) . v
Bemerkungen 7.5.16 (Herleitung der Abstandsformeln) n
1. Entsprechend Bemerkung 7.3.17, 3., stellt das Skalarprodukt ( p − q) · n das Produkt des auf n projizierten Anteils von p − q mit n dar. Dieser Anteil ist genau der Abstand d, also |( p − q) · n| = d · n,
Q
d P
Abb. 7.39 Auf n projizierter
Verbindungsvektor. woraus die erste Formel folgt. Bei einer Hesseschen Normalenform ist n = 1, und die Abstandsformel vereinfacht sich zu d = |( p − q) · n|.
2. Zur Bestimmung des Abstands d zweier nicht paralleler Geraden p1 + λ · v1 |λ ∈ R} und g1 = {
g2 = { p2 + λ · v2 |λ ∈ R}
alt und parallel zu g1 im R3 kann man sich die Ebene vorstellen, die g2 enth¨ ist, also den Ortsvektor p 2 und die Richtungsvektoren v1 und v2 besitzt. Der gesuchte Abstand d ist gleich dem Abstand des Punktes p1 zu dieser Ebene, den man wie unter 1. hergeleitet berechnen kann. Mit dem Normalenvektor n = v1 × v2 dieser Ebene erh¨alt man also d =
|( p2 − p 1 ) · ( v1 × v2 )| |( p2 − p 1 ) · n| = . n v1 × v2
178
7 Vektorrechnung
3. Den Abstand d eines Punktes q zu einer Geraden g = { p + λ · v |λ ∈ R} im Dreidimensionalen kann man durch folgenden Trick leicht berechnen:
Q
Der Betrag des Vektorprodukts v ×( q − p) ist nach Bemerkung 7.4.5, 3., gleich der Fl¨ ache des von v und q − p aufgespannten Parallelogramms. Entsprechend Abb. 7.40 ist dies aber gem¨aß Fl¨ache gleich Grundseite mal ” H¨ohe“ auch gleich v · d, also v × ( q − p ) = v · d
⇔
F¨ ur den Abstand d des Punktes Q =
g v
P Abb. 7.40 Parallelogramm ߬ ache.
v × ( q − p ) . v
d =
Beispiel 7.5.16.1
d
q − p
3 2 2
von der Geraden
⎫ ⎧⎛ ⎞ ⎛ ⎞ 2 ⎬ ⎨ 0 ⎝ −1 ⎠ + λ ⎝ 1 ⎠ λ ∈ R g = ⎭ ⎩ 2 −2
(vgl. Beispiel 7.5.14) ergibt sich ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 2 0 3 -⎝ 1 ⎠ × ⎝ 2 ⎠ − ⎝ −1 ⎠ −2 2 2 ⎛ ⎞ d = = 2 -⎝ 1 ⎠−2 ⎛ ⎞ ⎛ ⎞ 6 2 √ 1 -⎝ · - −6 ⎠ - = - ⎝ −2 ⎠ - = 9 = 3 3 1
⎛ ⎞ ⎛ ⎞ 2 3 -⎝ 1 ⎠ × ⎝3⎠−2 0 √ 9
= 3.
8
Lineare Gleichungssysteme und Matrizen
Das L¨osen linearer Gleichungssysteme bildet die Grundlage fast aller numerischen Verfahren in der Praxis. Auch wenn man sp¨ ater in der Regel lineare Gleichungssysteme mit dem Computer l¨ost, ist es wichtig zu verstehen, wie eine L¨osung grunds¨atzlich berechnet werden kann, und welche Effekte dabei auftreten k¨onnen. Die Darstellung von linearen Gleichungssystemen mit Hilfe der Matrix-VektorMultiplikation f¨ uhrt dabei auf die Matrizenrechnung. In diesem Kapitel werden Vektoren aus Rn meist ohne den Vektorpfeil “ ” geschrieben, da die Vorstellung als Pfeil nicht im Vordergrund steht. x1 .. ¨ ur andere Ublicherweise ist im Folgenden x ∈ Rn , x = . , entsprechend f¨ xn
Variablen.
8.1 Grundlagen
Definition 8.1.1 (Matrix und Matrix-Vektor-Multiplikation) Eine Matrix A ∈ Rm×n ist ein und n Spalten: ⎛ a11 a12 . . . a1n ⎜ a21 a22 . . . a2n ⎜ A = ⎜ . .. . . .. ⎝ .. . . .
am1 am2 . . . amn
Zahlenschema bestehend aus m Zeilen
800
⎞
⎟ ⎟ ⎟. ⎠
© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 G. Hoever, Höhere Mathematik kompakt, https://doi.org/10.1007/978-3-662-62080-9_8
179
180
801
8 Lineare Gleichungssysteme und Matrizen
Zu einer Matrix A ∈ Rm×n und einem Vektor x ∈ Rn ist die MatrixVektor-Multiplikation A · x = Ax ∈ Rm definiert durch ⎞ ⎛ ⎛ ⎞ a11 a12 . . . a1n x1 ⎜ a21 a22 . . . a2n ⎟ ⎟ ⎜ .. ⎟ ⎜ A·x = ⎜ . .. . . .. ⎟ · ⎝ . ⎠ ⎝ .. . . ⎠ . xn am1 am2 . . . amn ⎞ ⎛ a11 x1 + a12 x2 + · · · + a1n xn ⎜ a21 x1 + a22 x2 + · · · + a2n xn ⎟ ⎟ ⎜ = ⎜ ⎟. .. ⎠ ⎝ . am1 x1 + am2 x2 + · · · + amn xn
Bemerkungen 8.1.2 zu Definition 8.1.1 1. Man schreibt auch A = (aij )1≤i≤m, 1≤j≤n oder kurz A = (aij ). 2. Die Matrix-Vektor-Multiplikation kann man mittels eines linearen Gleichungssystems motivieren. Beispiel 8.1.2.1 Beim Gleichungssystem 2x1 − x2 − x3 = 1 x1 + x2 + 4x3 = 5. kann man die Koeffizienten als Matrix
2 −1 −1 A = 1 1 4 und die rechte Seite als Vektor b = 15 auffassen. x1 2 Durch Ausprobieren sieht man, dass xx2 = 3 eine L¨ osung ist. 3
0
Das Einsetzen entspricht genau der Matrix-Vektor-Multiplikation: ⎛ ⎞
2 2 −1 −1 2 · 2 + (−1) · 3 + (−1) · 0 1 · ⎝3⎠ = = . 1 1 4 1·2+1·3+4·0 5 0
Das lineare Gleichungssystem wird allgemein beschrieben durch ⎛ ⎞
x1 2 −1 −1 1 ⎝ ⎠ · x2 = , 1 1 4 5 x3 x1 kurz: Ax = b mit x = xx2 . 3
8.1 Grundlagen
181
3. Abb. 8.1 verdeutlicht, wie bei der Matrix-Vektor-Multiplikation die Dimensionen zueinander passen: 1 n 1 m
A
= m b
· n x
∈ Rm
∈ Rn
∈ Rm×n
Abb. 8.1 Dimensionen beim Matrix-Vektor-Produkt.
Beispiel 8.1.2.2 Eine Multiplikation
2 −1 0 3
⎛ ⎞ 1 · ⎝ 2 ⎠ ist nicht definiert. 3
4. Bei einer festen Matrix A ∈ Rm×n bezeichnet man die Abbildung f : Rn → Rm ,
x → A · x,
802
die jedem x ∈ Rn den Vektor A · x zuordnet, als lineare Abbildung. Beispiel 8.1.2.3
803
Die Abbildungen f : R → R , x → 2
2
11 01
·x
bzw.
g : R → R , x → 2
2
1 −1 1 1
·x
beschreiben eine Scherung in horizontaler Richtung bzw. eine Streckung verkn¨ upft mit einer Drehung, s. Abb. 8.2. Beispielsweise ist zu c = 21
11 2 3 f (c) = · = , 01 1 1
1 −1 2 1 g(c) = · = . x2 1 1 1 3 g(C) x2 D
x2 1
C
A 1
B x1
1 f (A)
g(B) f (D)
f (C) g(D)
1
f (B)
x1
1
g(A)
1
Abb. 8.2 Originale Punkte und ihre Bilder unter f bzw. g.
x1
182
8 Lineare Gleichungssysteme und Matrizen
Satz 8.1.3 (Rechenregeln f¨ur die Matrix-Vektor-Multiplikation) 804
F¨ ur eine Matrix A ∈ Rm×n , Vektoren x, y ∈ Rn und λ ∈ R gilt A · (x ± y) = Ax ± Ay
A · (λx) = λ · (Ax).
und
Beispiel 8.1.4 Die Gleichung A · (x + y) = Ax + Ay soll mit A = 1 y = 1 nachgerechnet werden: 1
2 −1 −1 1 1
4
,x=
2 3 0
und
Es ist
2 −1 −1 1 1 4
und
⎛ ⎞
2 1 · ⎝3⎠ = , 5 0
2 −1 −1 1 1 4
⎛ ⎞
1 0 · ⎝1⎠ = 6 1
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
2 3 1 2 −1 −1 1 2 −1 −1 · ⎝4⎠ = · ⎝3⎠ + ⎝1⎠ = 1 1 4 11 1 1 4 1 0 1
1 0 = + . 5 6
Definition 8.1.5 ((in-)homogenes lineares Gleichungssystem) 805
Ein lineares Gleichungssystem Ax = b mit einer Matrix A ∈ Rm×n und einer rechten Seite b ∈ Rm heißt homogen, falls b = 0 ist, ansonsten inhomogen.
Beispiel 8.1.6 Das Gleichungssystem
2 −1 −1 0 ·x = 1 1 4 0 ist homogen. Es besitzt offensichtlich die L¨ osung x = 2 1 Weitere L¨osungen sind x = 3 und x = 6 . −1
−2
0 0 0
.
8.1 Grundlagen
183
Satz 8.1.7 (L¨osungsstruktur eines linearen Gleichungssystems) 1. Ein homogenes lineares Gleichungssystem Ax = 0 besitzt immer die triviale L¨osung x = 0. Summen und Vielfache von L¨ osungen sind wieder L¨osungen.
806
Die Menge aller L¨osungen bildet einen Vektorraum. 2. Ist xs eine spezielle L¨osung des inhomogenen Gleichungssystems Ax = b, so erh¨alt man s¨amtliche L¨osungen von Ax = b durch xs + xh , wobei xh L¨osung des homogenen Systems Ax = 0 ist.
Bemerkungen 8.1.8 zur L¨osungsstruktur eines lin. Gleichungssystems 1. Dass x = 0 eine L¨osung eines homogenen Gleichungssystems Ax = 0 ist, ist klar. 2. Sind x und y L¨osungen des homogenen Gleichungssystems, also Ax = 0 und Ay = 0, so folgt mit Satz 8.1.3 A(x + y) = Ax + Ay = 0 + 0 = 0, A(λ · x) = λ · Ax = λ · 0 = 0, d.h. auch x + y und λ · x sind L¨osungen. Damit ist der L¨ osungsraum ein Vektorraum. Beispiel 8.1.8.1 (vgl. Beispiel 8.1.6) Die L¨osungsmenge zu
2 −1 −1 0 ·x = 1 1 4 0 ist die Gerade ⎧ ⎛ ⎫ ⎞ 1 ⎨ ⎬ g = λ · ⎝ 3 ⎠ λ ∈ R . ⎩ ⎭ −1
Dass die L¨osungsmenge eine Gerade ist, ist auch anschaulich klar, denn die beiden Gleichungen des entsprechenden Gleichungssystems 2x1 − x2 − x3 = 0 x1 + x2 + 4x3 = 0. beschreiben jeweils eine dreidimensionale Ebene in Normalendarstellung. Die L¨osungsmenge des Gleichungssystems ist der Schnitt dieser beiden Ebenen.
807
184
8 Lineare Gleichungssysteme und Matrizen
3. Ist xs eine L¨osung des inhomogenen Gleichungssystems Ax = b und xh L¨osung des entsprechenden homogenen Gleichungssystems Ax = 0, so folgt mit Satz 8.1.3 A(xs + xh ) = Axs + Axh = b + 0 = b, d.h, xs + xh ist auch L¨osung des inhomogenen Gleichungssystems. Auf diese Weise kann man alle L¨osungen des inhomogenen Gleichungssystems erreichen, denn ist y eine weitere L¨ osung des inhomogenen Gleichungssystems, also Ay = b, so folgt ¨ahnlich A(y − xs ) = Ay − Axs = b − b = 0, d.h. xh = y − xs ist eine L¨osung des homogenen Gleichungssystems, also y = xs + x h . Beispiel 8.1.8.2 Eine spezielle L¨osung des inhomogenen Gleichungssystems
2 −1 −1 1 ·x = 1 1 4 5 ist xs =
2 3 0
.
Mit der L¨osungsmenge g des entsprechenden homogenen Gleichungssystems aus Beispiel 8.1.8.1 erh¨alt man damit als L¨ osungsmenge des inhomogenen Gleichungssystems ⎧⎛ ⎞ ⎫ ⎛ ⎞ 1 ⎨ 2 ⎬ ⎝ 3 ⎠ + λ ⎝ 3 ⎠ λ ∈ R . ⎩ ⎭ 0 −1 1 3 Weitere L¨osungen sind also beispielsweise 6 und 0 . −1
1
Die L¨osungsmenge kann man damit auch beschreiben durch ⎧⎛ ⎞ ⎫ ⎛ ⎞ 1 ⎨ 1 ⎬ ⎝ 0 ⎠ + λ ⎝ 3 ⎠ λ ∈ R ⎩ ⎭ 1 −1
(Mehrdeutigkeit einer Geradendarstellung, s. Bemerkung 7.5.4, 1.).
8.2 Gaußsches Eliminationsverfahren
185
8.2 Gaußsches Eliminationsverfahren Das Gaußsche Eliminationsverfahren dient zur Bestimmung der L¨ osungsmenge eines linearen Gleichungssystems.
Beispiel 8.2.1
808
Betrachtet wird das lineare Gleichungssystem + 4x4 2x1 + 4x2 x1 + 3x2 + x3 + 4x4 −2x1 − 2x2 + x3 + x4 + x4 − x2
= = = =
8 10 7 −1.
Eine u ¨bersichtliche Darstellung bietet die erweiterte Koeffizientenmatrix (Koeffizienten | rechte Seite): ⎞ ⎛ 2 4 0 4 8 ⎜1 3 1 4 10 ⎟ ⎟. ⎜ ⎝−2 −2 1 1 7 ⎠ 0 −1 0 1 −1 Die L¨osungsmenge ¨andert sich nicht bei elementaren Zeilenoperationen, d.h., wenn man • Gleichungen bzw. Zeilen mit einem Faktor ungleich Null multipliziert, • Gleichungen bzw. Zeilen vertauscht,
• Vielfache einer Gleichung bzw. Zeile auf eine andere Gleichung bzw. Zeile addiert bzw. davon subtrahiert. Mit diesen Umformungen versucht man, eine Zeilen-Stufen-Form zu erreichen, d.h. im unteren linken Teil der Matrix Nullen zu erzeugen und m¨ oglichst Einsen auf der Diagonalen. Dazu behandelt man schrittweise die Spalten von links nach rechts: Im ersten Teilschritt wird die entsprechende Gleichung so mit einer Zahl multipliziert bzw. durch eine Zahl dividiert, dass das entsprechende Diagonalelement gleich 1 wird. Im zweiten Teilschritt wird ein geeignetes Vielfaches dieser Zeile so zu den darunter liegenden Zeilen addiert, dass in der entsprechenden Spalte Nullen entstehen.
Beispiel 8.2.2 (Fortsetzung von Beispiel 8.2.1) Im Folgenden ist hinter der Matrix jeweils vermerkt, welche elementare Zei¨ lenoperation beim Ubergang zur n¨achsten Matrix durchgef¨ uhrt wird. R¨ omische Ziffern beziehen sich auf die entsprechende Zeile.
809
186
8 Lineare Gleichungssysteme und Matrizen ⎛
2 ⎜1 ⎜ ⎝−2 0
4 3 −2 −1
0 1 1 0
4 4 1 1
1 ⎜1 →⎜ ⎝−2 0
2 3 −2 −1
0 1 1 0
2 4 1 1
1 2 ⎜0 1 →⎜ ⎝0 2 0 −1
0 1 1 0
2 2 5 1
⎛
⎛
⎛
1 ⎜0 →⎜ ⎝0 0
2 1 0 0
0 1 −1 1
2 2 1 3
1 ⎜0 →⎜ ⎝0 0
2 1 0 0
0 1 1 1
2 2 −1 3
1 ⎜0 →⎜ ⎝0 0
2 1 0 0
0 1 1 0
2 2 −1 4
1 ⎜0 →⎜ ⎝0 0
2 1 0 0
0 1 1 0
2 2 −1 1
⎛
⎛
⎛
⎞ :2 8 10 ⎟ ⎟ 7 ⎠ −1
⎞ 4 10 ⎟ ⎟ −I 7 ⎠ +2·I −1
⎞ 4 6 ⎟ ⎟ 15 ⎠ − 2 · II + II −1 ⎞ 4 6 ⎟ ⎟ · (−1) 3 ⎠ 5
⎞ 4 6 ⎟ ⎟ −3 ⎠ − III 5 ⎞ 4 6 ⎟ ⎟ −3 ⎠ · 8
Schritt 1a: a11 soll 1 werden.
Schritt 1b: a21 , a31 und a41 sollen 0 werden.
Schritt 2a: ullt). a22 soll 1 sein (schon erf¨ Schritt 2b: a32 und a42 sollen 0 werden. Schritt 3a: a33 soll 1 werden.
Schritt 3b: a43 soll 0 werden.
Schritt 4a: a44 soll 1 werden. 1 4
⎞ 4 6 ⎟ ⎟ −3 ⎠ 2
In ausf¨ uhrlicher Form lautet das umgeformte Gleichungssystem also
810
+ 2x4 x1 + 2x2 x2 + x3 + 2x4 x3 − x 4 x4
= = = =
4 6 −3 2.
Durch r¨ uckw¨arts-Einsetzen erh¨alt man nun die L¨ osung:
8.2 Gaußsches Eliminationsverfahren
187
x4 = 2, x3 = −3 + x4 = −3 + 2 = −1, x2 = 6 − x3 − 2x4 = 6 − (−1) − 2 · 2 = 3, x1 = 4 − 2x2 − 2x4 = 4 − 2 · 3 − 2 · 2 = −6. Statt des r¨ uckw¨arts-Einsetzens kann man auch bei der erweiterten Koeffizientenmatrix mit elementaren Zeilenumformungen den oberen rechten Teil der Matrix zu Null machen, z.B. spaltenweise von rechts nach links.
Beispiel 8.2.3 (Fortsetzung von Beispiel 8.2.1 und Beispiel 8.2.2) ⎛
1 ⎜0 ⎜ ⎝0 0 ⎛ 1 ⎜0 →⎜ ⎝0 0
2 1 0 0
0 1 1 0
2 2 −1 1
2 1 0 0
0 1 1 0
0 0 0 1
1 ⎜0 →⎜ ⎝0 0
2 1 0 0
0 0 1 0
0 0 0 1
1 ⎜0 →⎜ ⎝0 0
0 1 0 0
0 0 1 0
0 0 0 1
⎛
⎛
⎞ 4 −2 · IV 6 ⎟ ⎟ −2 · IV −3 ⎠ + IV 2 ⎞ 0 2 ⎟ ⎟ − III −1 ⎠ 2 ⎞ − 2 · II 0 3 ⎟ ⎟ −1 ⎠ 2
⎞ −6 3 ⎟ ⎟ −1 ⎠ 2
Man kann nun die L¨osung ablesen: x1 = −6,
x2 = 3,
x3 = −1,
x4 = 2.
Ein m¨ogliches Problem ist, dass beim m-ten Schritt das entsprechende Diagonalelement amm gleich Null ist, so dass man es nicht zu 1 machen kann. Es gibt dann zwei F¨alle: 1. Es gibt in der Spalte unterhalb von amm ein Element ungleich Null. Dann kann man die entsprechenden Zeilen vertauschen und anschließend weiter vorgehen wie beschrieben. 2. Alle Elemente in der Spalte unterhalb von amm sind auch gleich Null. Dann bewirkt diese Spalte eine lange Stufe und damit einen freien Parameter in der L¨osungsdarstellung (s. unten), und man macht zun¨ achst weiter mit der n¨achsten Spalte (aber gleicher Zeile).
811
188
8 Lineare Gleichungssysteme und Matrizen
Beispiel 8.2.4 Betrachtet wird das Gleichungssystem x1 3x1 x1 −x1
+ + + −
2x2 6x2 4x2 x2
− − + +
x3 3x3 3x3 3x3
+ + + +
x4 4x4 x4 2x4
= = = =
1 5 3 6
bzw. als erweiterte Koeffizientenmatrix: ⎛
2 −1 6 −3 4 3 −1 3
1 4 1 2
2 0 2 1
−1 0 4 2
1 1 0 3
2 1 2 0
−1 2 4 0
1 3 0 1
2 1 0 0
−1 1 2 3 0 −6 0 1
1 ⎜0 →⎜ ⎝0 0
2 1 0 0
−1 2 0 0
1 3 1 1
1 ⎜0 →⎜ ⎝0 0
2 1 0 0
−1 2 0 0
1 3 1 0
1 ⎜0 →⎜ ⎝0 0
2 1 0 0
−1 2 0 0
0 0 1 0
1 ⎜3 ⎜ ⎝1 −1 ⎛
1 ⎜0 ⎜ →⎝ 0 0 ⎛ 1 ⎜0 →⎜ ⎝0 0 ⎛ 1 ⎜0 →⎜ ⎝0 0 ⎛
⎛
⎛
⎞ 1 −3 · I 5 ⎟ ⎟ 3 ⎠ −I +I 6
⎞ 1 2 ⎟ ⎟ 2 ⎠ 7 ⎞ 1 7 ⎟ ⎟ 2 ⎠ −2 · II 2 ⎞ 1 7 ⎟ ⎟ −12 ⎠ : (−6) 2
(a22 ist 0, aber es gibt unterhalb von a22 noch nicht-Null-Elemente; daher werden Zeilen getauscht.)
(a33 ist 0, und es gibt unterhalb von a33 keine nicht-Null-Elemente; daher wird mit der vierten Spalte weiter gemacht und a34 zu 1 gemacht.)
⎞ 1 7 ⎟ ⎟ 2 ⎠ −III 2
⎞ 1 − III 7 ⎟ ⎟ − 3 · III 2 ⎠ 0
⎞ −2 · II −1 1 ⎟ ⎟ 2 ⎠ 0
(Hier hat man schon eine ZeilenStufen-Form erreicht, aber zur Interpretation ist es besser, oberhalb der f¨ uhrenden Einsen Nullen zu erzeugen.)
8.2 Gaußsches Eliminationsverfahren ⎛
1 ⎜0 →⎜ ⎝0 0
0 1 0 0
−5 2 0 0
189
⎞ −3 1 ⎟ ⎟ 2 ⎠ 0
0 0 1 0
In ausf¨ uhrlicher Form lautet das umgeformte Gleichungssystem also x1
− 5x3 x2 + 2x3
= = x4 = 0 =
−3 1 2 0.
812
Beim r¨ uckw¨arts-Einsetzen ist x3 unbestimmt und kann als Parameter genutzt werden; mit x3 = λ gilt dann x2 = 1 − 2λ
und
x1 = −3 + 5λ,
also ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ −3 + 5λ x1 −3 5 ⎜ ⎜ x2 ⎟ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ = ⎜ 1 − 2λ ⎟ = ⎜ 1 ⎟ + λ · ⎜ −2 ⎟ . ⎝ ⎝ x3 ⎠ ⎠ ⎝ 0 ⎠ ⎝ 1 ⎠ λ x4 2 2 0
−3 ist eine spezielle L¨ osung des inDie L¨osungsmenge ist eine Gerade; 10 2
5 eine L¨osung des homogenen Gleichungssystems. homogenen und −2 1 ⎛
0
Um ausgehend von der Zeilen-Stufen-Matrix die allgemeine L¨ osung zu erhalten, kann man auch wie folgt vorgehen: In der Matrix l¨asst man die Null-Zeile weg und f¨ ugt eine Zeile ein, die ausandige Diagonalgestalt dr¨ uckt, dass x3 = λ ist. Nun kann man eine vollst¨ erhalten und damit das r¨ uckw¨arts-Einsetzen auch innerhalb der Koeffizientenmatrix durchf¨ uhren: ⎛
1 ⎜0 ⎜ ⎝0 0
0 1 0 0
−5 2 1 0
0 0 0 1
1 ⎜0 →⎜ ⎝0 0
0 1 0 0
0 0 1 0
0 0 0 1
⎛
⎞ +5 · III −3 ⎟ 1 ⎟ −2 · III λ ⎠ neue Zeile 2
⎞ −3 + 5λ 1 − 2λ ⎟ ⎟ ⎠ λ 2
Hier kann man rechts die vollst¨andige L¨ osung ablesen.
813
190
814
8 Lineare Gleichungssysteme und Matrizen
Im Allgemeinen (auch wenn die Anzahl der Variablen und Gleichungen unterschiedlich ist) erreicht man durch elementare Zeilenumformungen eine Form wie ⎞ ⎛ 1 ∗ 0 0 ∗ ··· 0 ∗ c1 ⎟ ⎜ ⎜ 0 0 1 0 ∗ ··· 0 ∗ .. ⎟ ⎜ . ⎟ ⎟ ⎜ 0 ··· 0 1 ∗ ··· 0 ∗ ⎟ ⎜ ⎜ 0 ··· 0 1 ∗ ck ⎟ ⎟. ⎜ ⎟ ⎜ ⎜ 0 ··· 0 ck+1 ⎟ ⎟ ⎜ . . . .. .. .. ⎠ ⎝ .. . 0 ··· 0 cm Die dargestellte Form mit f¨ uhrenden Einsen und dar¨ uber Nullen nennt man auch die reduzierte, normierte oder normalisierte Zeilenstufenform. Man kann sie folgendermaßen weiter interpretieren: • Ist eines der Elemente ck+1 , . . . , cm ungleich Null, so ist das Gleichungssystem nicht l¨osbar. • Bei langen Stufen f¨ uhrt jede Variable zu einer ∗–Spalte zu einem freien Parameter. • Setzt man die Variablen, die zu einer f¨ uhrenden Eins einer Stufe geh¨ oren (man nennt diese Variablen auch Stufenvariablen), also die Variablen zu den nicht–∗–Spalten, auf den der Stufe entsprechenden Wert cl und die restlichen Variablen auf 0, so erh¨alt man eine spezielle L¨ osung des Gleichungssystems. Wie am Ende von Beispiel 8.2.4 kann man Zeilen mit einem freien Parameter zu den ∗–Spalten-Variablen einf¨ ugen, um dann auch die ∗–Spalten zu Null zu machen. Damit erh¨alt man die Abh¨angigkeit der anderen Variablen von diesen Parametern. Eine entsprechende L¨osungsdarstellung nennt man allgemeine L¨osung des Gleichungssystems.
Beispiel 8.2.5 Zu der schon in vollst¨andige Zeilen-Stufen-Form gebrachten erweiterten Koeffizientenmatrix mit Nullen u uhrenden Einsen ¨ber den f¨ ⎛
ist
x1 x2 x3 x4 x5 x6
1 ⎜ 0 ⎜ ⎝ 0 0
0 1 0 0
3 2 0 0
0 0 1 0
0 8 0 1 0 5 1 4
2 4 6 0
⎞ ⎟ ⎟ ⎠
8.2 Gaußsches Eliminationsverfahren
191
⎛
⎞ ⎛ ⎞ x1 2 ⎜ x2 ⎟ ⎜ 4 ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ x3 ⎟ ⎜ 0 ⎟ ⎜ ⎟=⎜ ⎟ ⎜ x4 ⎟ ⎜ 6 ⎟ ⎜ ⎟ ⎜ ⎟ ⎝ x5 ⎠ ⎝ 0 ⎠ x6 0
eine spezielle L¨osung. ugt entspreUnbestimmt sind x3 und x6 . Setzt man x3 = λ, x6 = μ und f¨ chende Zeilen ein, erh¨alt man ⎛ ⎞ −8 · VI 1 0 3 0 0 8 2 ⎜ 0 1 2 0 0 1 ⎟ −1 · VI 4 ⎜ ⎟ ⎜ 0 0 1 0 0 0 λ ⎟ ⎜ ⎟ ⎜ 0 0 0 1 0 5 6 ⎟ ⎜ ⎟ −5 · VI ⎝ 0 0 0 0 1 4 0 ⎠ −4 · VI 0 0 0 0 0 1 μ ⎛ ⎞ −3 · III 1 0 3 0 0 0 2 − 8μ ⎜ 0 1 2 0 0 0 ⎟ −2 · III 4 − μ ⎜ ⎟ ⎜ 0 0 1 0 0 0 ⎟ λ ⎜ ⎟ →⎜ ⎟ 0 0 0 1 0 0 6 − 5μ ⎜ ⎟ ⎝ 0 0 0 0 1 0 −4μ ⎠ 0 0 0 0 0 1 μ ⎛ ⎞ 1 0 0 0 0 0 2 − 3λ − 8μ ⎜ 0 1 0 0 0 0 4 − 2λ − μ ⎟ ⎜ ⎟ ⎜ 0 0 1 0 0 0 ⎟ λ ⎜ ⎟. →⎜ ⎟ 0 0 0 1 0 0 6 − 5μ ⎜ ⎟ ⎝ 0 0 0 0 1 0 ⎠ 0 − 4μ 0 0 0 0 0 1 μ
Damit ist die allgemeine L¨osung ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ x1 2 − 3λ − 8μ 2 −3 −8 ⎜ x2 ⎟ ⎜ 4 − 2λ − μ ⎟ ⎜4⎟ ⎜ −2 ⎟ ⎜ −1 ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ x3 ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ λ ⎜ ⎟ = ⎜ ⎟ = ⎜0⎟ + λ⎜ 1 ⎟ + μ⎜ 0 ⎟. ⎜ x4 ⎟ ⎜ 6 − 5μ ⎟ ⎜6⎟ ⎜ 0 ⎟ ⎜ −5 ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎝ x5 ⎠ ⎝ 0 − 4μ ⎠ ⎝0⎠ ⎝ 0 ⎠ ⎝ −4 ⎠ x6 μ 0 0 1
Bemerkung 8.2.6 (Anzahl der L¨osungen) Lineare Gleichungssysteme k¨onnen keine, genau eine oder unendlich viele L¨osungen haben. An der Zeilen-Stufen-Form kann man sehen, welcher Fall auftritt: 1. Gibt es eine Zeile mit Nullen links und einem Eintrag ungleich Null rechts, so gibt es keine L¨osung. 2. Tritt 1. nicht auf, und sind alle Stufen kurz, so ist die L¨ osung eindeutig.
815
192
8 Lineare Gleichungssysteme und Matrizen 3. Tritt 1. nicht auf, und gibt es lange Stufen, also ∗-Spalten, so gibt es unendlich viele L¨osungen.
In Abh¨angigkeit von der Anzahl der Gleichungen und Variablen gibt es folgende F¨ alle: • Genau so viele Gleichungen wie Variablen:
Gibt es nur kurze Stufen, so gibt es keine Null-Zeile, und die L¨ osung ist eindeutig. Gibt es mindestens eine lange Stufe, so entsteht unten mindestens eine Null-Zeile links. Es gibt dann keine oder unendlich viele L¨ osungen.
• Mehr Variablen als Gleichungen:
Es gibt mindestens eine lange Stufe (sp¨ atestens in der letzten Zeile), also unendlich viele L¨osungen oder – falls es eine Nullzeile links mit nicht-Null Eintrag rechts gibt – keine L¨osung.
• Mehr Gleichungen als Variablen:
Es gibt mindestens eine Nullzeile links. Je nach den Eintr¨ agen rechts bzw. dem Auftreten von langen Stufen gibt es keine, genau eine oder unendlich viele L¨osungen.
Bemerkungen 8.2.7 1. Allgemein bedeutet das Auftreten von kompletten Null-Zeilen (links und rechts), dass es Redundanz in den urspr¨ unglichen Gleichungen gibt: eine oder mehrere Gleichungen sind darstellbar als Linearkombinationen von anderen Gleichungen. Entsteht links eine Null-Zeile und rechts ein Eintrag ungleich Null, so enth¨ alt das zugrunde liegende Gleichungssystem einen Widerspruch. 2. Bei der Durchf¨ uhrung des Gaußschen Eliminationsverfahrens von Hand f¨ uhrt man gerne mehrere Schritte gleichzeitig aus. Man muss aber darauf achten, dass man nicht gleichzeitig Dinge macht, die hintereinander ausgef¨ uhrt zu anderen Ergebnissen f¨ uhren, da man dann ggf. Information verliert. Beispiel 8.2.7.1 Gleichzeitiges Addieren der ersten auf die zweite Zeile und der zweiten auf die erste Zeile f¨ uhrt zu einem Informationsverlust:
+II 0 4 1 1 3 −2 → . +I 0 4 1 −1 1 3
8.2 Gaußsches Eliminationsverfahren
193
Definition 8.2.8 (Rang) Die Anzahl der nicht-Null-Zeilen in der Zeilen-Stufen-Form zu einer Matrix A heißt Rang von A.
816
Beispiele 8.2.9 1. Wie man an dem durchgef¨ uhrten Gaußschen Eliminationsverfahren bei Bei
spiel 8.2.4 sieht, ist der Rang von
1 3 1 −1
2 6 4 −1
−1 −3 3 3
2. Durch elementare Zeilenoperationen erh¨ alt ⎛ ⎛ ⎞ ⎞ 1 3 1 3 ⎜ 2 6 ⎟ −2·I ⎜0 0⎟ ⎜ ⎜ ⎟ ⎟ → ⎝ 1 4 ⎠ −I → ⎝ 0 1 ⎠ 0 3 0 3 −3·III
1 4 1 2
gleich 3.
man ⎛ 1 ⎜0 ⎜ ⎝0 0
⎞ 3 1⎟ ⎟. 0⎠ 0
Der Rang der ersten Matrix (und auch der anderen) ist also gleich 2.
Bemerkung 8.2.10
n
Bei einem linearen Gleichungssystem Ax = b mit n Variablen, gibt es in der Zeilen-Stufen-Form Rang(A) viele f¨ uhrende Einsen, also n − Rang(A) viele ∗-Spalten.
Im Falle der L¨osbarkeit gibt es also n − Rang(A) viele freie Parameter.
⎧⎛ ⎨ 1∗ 1∗ Rang(A) ⎜ ... ⎩⎜ ⎜ ⎝ 0
1
⎞ ⎟ ⎟ ⎟ ⎠
... 0
Abb. 8.3 Rang einer Matrix.
Bemerkung 8.2.11 Der Rang einer Matrix ist offensichtlich immer kleiner oder gleich der Anzahl der Zeilen. Wie man an Beispiel 8.2.9, 2., sieht, ist der Rang auch immer kleiner oder gleich der Anzahl der Spalten. Man kann also sagen: Der Rang von A ∈ Rm×n ist immer kleiner oder gleich min{m, n}.
Definition 8.2.12 (voller Rang) Die Matrix A ∈ Rm×n hat vollen Rang :⇔ der Rang ist min{m, n}.
Beispiel 8.2.13 Entsprechend der Angaben Rangs
1 des bei Beispiel 8.2.9 hat die Matrix
1 3 2 −1 1 3 6 −3 4 2 6 vollen Rang, nicht. 1 4 1 4 3 1 0
3
−1 −1 3
2
817
194
8 Lineare Gleichungssysteme und Matrizen
8.3 Matrizen In naheliegender Weise (komponentenweise) definiert man eine Addition und skalare Multiplikation von Matrizen:
Definition 8.3.1 (Addition und skalare Multiplikation) 818
Zu Matrizen A, B ∈ Rm×n , A = (aij ), B = (bij ) und α ∈ R ist A + B := (aij + bij ) ∈ Rm×n , α · A := (α · aij )
Beispiel 8.3.2 Es ist
2 3 −1 1 0 −1
+
∈ Rm×n
−1 0 2 1 1 1
=
(skalare Multiplikation).
1 3 1 2 1 0
.
Bemerkungen 8.3.3 zur Matrizen-Addition und skalaren Multiplikation 1. Offensichtlich gelten die u ¨blichen Rechenregeln, z.B. α · (A + B) = αA + αB, d.h. Rm×n ist ein Vektorraum. 2. Die Operationen sind auch vertr¨aglich mit der Matrix-Vektor-Multiplikation. Beispielsweise gilt (A + B) · x = A · x + B · x. Eine Matrix-Matrix-Multiplikation ist nicht komponentenweise definiert, sondern kann durch Einsetzen in ein lineares Gleichungssystem motiviert werden. 819
Beispiel 8.3.4 Setzt man verschiedene x-Werte in die linke Seite eines Gleichungssystems 2x1 + 3x2 − x3 x1 − x3 ein, so erh¨ alt man verschiedene Ergebnisse: ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
x1 1 x1 0 ⎝ x2 ⎠ = ⎝ 2 ⎠ ergibt 8 , ⎝ x2 ⎠ = ⎝ 0 ⎠ ergibt 0 , 1 0 x3 x3 0 0 ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞
x1 1 0 x1 ⎝ x2 ⎠ = ⎝ 1 ⎠ ergibt 4 , ⎝ x2 ⎠ = ⎝ 0 ⎠ ergibt 2 . 1 1 x3 x3 0 −1 Schematisch kann man das ⎛
1 0 2 3 −1 · ⎝2 0 1 0 −1 0 0
wie folgt zusammenfassen: ⎞
0 1 8 0 4 2 ⎠ 1 0 = . 1 0 1 1 −1 0
8.3 Matrizen
195
Definition 8.3.5 (Matrix-Matrix-Multiplikation) Zu zwei Matrizen A ∈ Rm×n und B ∈ Rn×l , A = (aij ), B = (bij ) ist das Matrix-Matrix-Produkt C = (cij ) = A · B ∈ Rm×l definiert durch: cij = ai1 b1j + ai2 b2j + · · · + ain bnj =
n
aik bkj .
k=1
Bemerkungen 8.3.6 zur Matrix-Matrix-Multiplikation 1. Das Element cij in der i-ten Zeile und j-ten Spalte der Produktmatrix erh¨ alt man also durch Verkn¨ upfung der i-ten Zeile der ersten Matrix mit der j-ten Spalte der zweiten Matrix (s. Abb. 8.4). Dabei m¨ ussen die Dimensionen passen (Spaltenanzahl der ersten Matrix gleich Zeilenanzahl der zweiten). l l n ci,j
=m
·n
m A ∈ Rm×n
A·B ∈ Rm×l
B ∈ Rn×l
Abb. 8.4 Struktur beim Matrix-Matrix-Produkt.
2. Die Matrix-Matrix-Multiplikation kann man sich durch das Falk-Schema wie in Abb. 8.5 merken: ⎛ ⎞ 1 0 0 1 ⎝2 0 1 0⎠ = B 0 0 −1 0 A =
2 3 −1 1 0 −1
∗ ∗ c13 ∗ ∗ ∗ ∗ ∗
820
Abb. 8.5 Falk-Schema.
Das Ergebniselement ergibt sich ¨ahnlich wie beim Skalarprodukt aus der entsprechenden Zeile bzw. Spalte von A bzw. B: c13 = 2 · 0 + 3 · 1 + (−1) · (−1). 3. Einen (Spalten-)Vektor x ∈ Rn kann man auch als (n × 1)-Matrix auffassen. Damit ist die Matrix-Vektor-Multiplikation Ax = b ein Spezialfall der Matrix-Matrix-Multiplikation. 1 n 1 m
A ∈ Rm×n
·
n x ∈ Rn×1
=
m b ∈ Rm×1
Abb. 8.6 Matrix-Vektor-Produkt als Spezialfall des Matrix-Matrix-Produkts.
821
196
8 Lineare Gleichungssysteme und Matrizen
Beispiel 8.3.6.1 1 Den Vektor 2 kann man als (3 × 1)-Matrix auffassen und erh¨ alt als 0 Matrix-Matrix-Produkt ⎛ ⎞
1 2 3 −1 8 · ⎝2⎠ = . 1 0 −1 1 0 4. Eine Vertauschung bei der Matrix-Matrix-Multiplikation (B · A statt A · B) geht im Allgemeinen nicht. 822
Beispiele 8.3.6.2 a) Schon aus Dimensionsgr¨ unden kann man ⎛ ⎞
1 0 0 1 ⎝ 2 0 1 0 ⎠ · 2 3 −1 1 0 −1 0 0 −1 0 nicht bilden.
b) Bei
A=
2 3 −1 1 0 −1
∈ R2×3
und
⎛
⎞ 1 0 B = ⎝ 2 0 ⎠ ∈ R3×2 0 0
kann man sowohl A · B als auch B · A bilden. Die Ergebnisse haben unterschiedliche Dimensionen: ⎛ ⎞
1 0 2 3 −1 8 0 ⎝ ⎠ A·B = · 2 0 = ∈ R2×2 , 1 0 −1 1 0 0 0 ⎛ ⎞ ⎛ ⎞
1 0 2 3 −1 2 3 −1 B · A = ⎝2 0⎠ · = ⎝ 4 6 −2 ⎠ ∈ R3×3 . 1 0 −1 0 0 0 0 0 c) Bei A = aber
0 1 00
∈ R2×2 , B =
0 · 0
0 0 0 B·A = · 0 1 0 A·B =
0 0
0 1 0 0
01
0 1 1 0
∈ R2×2 sind A · B und B · A aus R2×2 , = =
0 1 0 0 0 0 0 0
, .
8.3 Matrizen
197
Satz 8.3.7 (Rechenregeln f¨ur Matrizen) Abgesehen von der Vertauschung gelten f¨ ur die Matrizen-Rechnungen die u ¨blichen Regeln, z.B.: A · (B + C) = A · B + A · C,
A · (B · C) = (A · B) · C,
(α · A) · B = α · (A · B),
Beispiel 8.3.8 Bei A =
2 3 −1 1 0 −1
, B=
1 0 20 00
und x =
A · (B · x) = (A · B) · x.
⎛ 1 2 3 −1 · ⎝2 (A · B) · x = ⎝ 1 0 −1 0
8 0 2 = · = 1 0 −3
und ebenso
⎛
A · (B · x) =
2 3 1 0
=
2 3 1 0
⎛⎛
823
1 −1 · ⎝⎝ 2 −1 0 ⎛ ⎞ 2 −1 · ⎝4⎠ −1 0
2 −3
ist
⎞⎞
0 2 ⎠ ⎠ 0 · −3 0
16 2 ⎞ ⎞
0 2 ⎠ 0⎠ · −3 0
16 = . 2
Definition 8.3.9 (transponierte Matrix) Durch Vertauschen von Zeilen und Spalten erh¨ alt man aus einer Matrix A ∈ Rm×n die transponierte Matrix AT ∈ Rn×m .
Bemerkung 8.3.10 zur transponierten Matrix Die transponierte Matrix AT erh¨alt man durch Spiegelung der Elemente von A an der (von links oben diagonal abw¨arts f¨ uhrenden) Hauptdiagonalen.
Beispiel 8.3.11 Zu A =
⎛
2 1
1 Zu B = ⎝ 2 0
⎛
⎞ 2 1 0 ⎠ ∈ R3×2 . ∈ R2×3 ist AT = ⎝ 3 −1 −1 ⎛ ⎞ ⎞ 1 2 0 0 0 1 ⎜ 0 0 0 ⎟ 4×3 ⎟ 0 1 0 ⎠ ∈ R3×4 ist B T = ⎜ ⎝ 0 1 −1 ⎠ ∈ R . 0 −1 0 1 0 0
3 −1 0 −1
824
198
8 Lineare Gleichungssysteme und Matrizen
Bemerkungen 8.3.12 T 1. Offensichtlich ist AT = A.
2. Man kann bei Matrizen als Eintr¨age statt reeller Zahlen auch komplexe Zahlen nehmen. Man schreibt entsprechend A ∈ Cn×m . Statt der transponierten Matrix wird dann oft die hermitesche Matrix A∗ (oder AH ) betrachtet, age konjugiert komplex genommen die sich aus AT ergibt, indem alle Eintr¨ werden. Beispiel 8.3.12.1
−j 0 j 2+j . Zu A = ist A∗ = 2 − j −3j 0 3j
Satz 8.3.13 825
F¨ ur Matrizen A ∈ Rm×n und B ∈ Rn×l gilt: (A · B)T = B T · AT .
Beispiel 8.3.14 Der Vergleich der Multiplikationen mittels des Falk-Schemas (s. Abb. 8.7 im Vergleich zu Abb. 8.5, S. 195) macht transparent, dass bei der Berechnung von B T · AT tats¨achlich die gleichen Berechnungen wie bei A · B gemacht werden. ⎛ ⎞ 2 1 ⎝ 3 0 ⎠ = AT −1 −1 BT
⎛
1 ⎜0 ⎜ = ⎝ 0 1
⎞ 2 0 0 0 ⎟ ⎟ 1 −1 ⎠ 0 0
⎛
∗ ⎜ ∗ ⎜ ⎝ 4 ∗
⎞ ∗ ∗ ⎟ ⎟ ∗ ⎠ ∗
Abb. 8.7 Berechnung von B T · AT mit dem Falk-Schema.
Satz 8.3.15 826
Der Rang der Matrix A ist gleich dem Rang von AT .
Beispiel 8.3.16 Der Rang von
1 3 1 −1
2 6 4 −1
−1 −3 3 3
1 4 1 2
ist gleich 3, vgl. Beispiel 8.2.9. Tats¨ achlich
erh¨alt man auch bei der transponierten Matrix durch elementare Zeilenope-
8.3 Matrizen
199
rationen eine Null-Zeile: ⎛ ⎞ 1 3 1 −1 ⎜ 2 6 4 −1 ⎟ ⎜ ⎟ −2 · I ⎝ −1 −3 3 3 ⎠ + I −I 1 4 1 2 ⎛ ⎞ 1 3 1 −1 ⎜0 1 0 3 ⎟ ⎟ → ⎜ ⎝0 0 4 2 ⎠ :4 − 12 · III 0 0 2 1
⎛
1 ⎜0 → ⎜ ⎝0 0 ⎛ 1 ⎜0 → ⎜ ⎝0 0
3 0 0 1 3 1 0 0
⎞ 1 −1 2 1 ⎟ ⎟ 4 2 ⎠ 0 3 ⎞ 1 −1 0 3 ⎟ ⎟. 1 21 ⎠ 0 0
Bemerkung 8.3.17 (Zeilenrang und Spaltenrang) Der Rang ist in Definition 8.2.8 definiert als Anzahl der nicht-Null-Zeilen nach dem Gaußschen Eliminationsverfahren mit elementaren Zeilenoperationen. Man spricht dabei auch vom Zeilenrang. Man kann entsprechend elementare Spaltenoperationen durchf¨ uhren und die Anzahl der resultierenden nicht-Null-Spalten den Spaltenrang nennen. Da Spaltenoperationen bei A Zeilenoperationen bei AT entsprechen, ist der Spaltenrang von A gleich dem Zeilenrang von AT , der nach Satz 8.3.15 gleich dem Zeilenrang von A ist, also: Zeilenrang = Spaltenrang.
Bemerkungen 8.3.18 (Skalarprodukt und Matrix-Matrix-Multiplikation) 1. Einen Vektor x ∈ Rn fasst man je nach Zusammenhang auch als (n × 1)Matrix auf (Spaltenvektor). Der transponierte Vektor xT ∈ R1×n ist dann ein Zeilenvektor. Beispiel 8.3.18.1 1 Zu x = 2 ist xT = (1 2 3). 3
Das Skalarprodukt x · y ergibt sich dann auch durch die Matrix-MatrixMultiplikation xT · y, wobei die (1 × 1)-Ergebnismatrix als Zahl interpretiert werden kann. Beispiel 8.3.18.2 1 0 F¨ ur x = 2 und y = −1 ist 3
1
⎛ ⎞ ⎛ ⎞ 1 0 x · y = ⎝ 2 ⎠ · ⎝ −1 ⎠ = 1 · 0 + 2 · (−1) + 3 · 1 = 1. 3 1
Als Matrix-Matrix-Multiplikation ist
827
200
8 Lineare Gleichungssysteme und Matrizen ⎛
⎞ 0 xT · y = ( 1 2 3 ) ⎝ −1 ⎠ = ( 1 ). 1
Es ist aber x · yT
⎛ ⎞ 1 = ⎝ 2 ⎠ · ( 0 −1 1 ) = 3
⎛
0 −1
1
⎞ 0 −1 1 3×3 . 2 ⎝ 0 −2 2 ⎠ ∈ R 3 0 −3 3 1
2. Bei einer Matrix-Matrix-Multiplikation A · B kann man die Zeilen von A und die Spalten von B als Vektoren auffassen. Das Produkt A · B besteht dann aus den einzelnen Skalarprodukten: ⎞ ⎛ ⎞ ⎛ a1 T ⎟ ⎜ .. Zu A = ⎝ ⎠ und B = ⎝ b1 . . . bl ⎠ . am T ⎛
⎜ ist A · B = ⎝
a1 T .. . am T
⎞ ⎛ ⎞ ⎛ a ·b . . . a ·b ⎞ 1 1 1 l ⎜ . ⎟ ⎝ .. ⎟ . .. ⎠ · b1 . . . bl ⎠ = ⎝ .. . . ⎠ am ·b1 . . . am ·bl
8.4 Quadratische Matrizen
Definition 8.4.1 828
Eine Matrix A ∈ Rn×n heißt quadratische Matrix. Gilt A = AT , so heißt A symmetrisch.
Weiterhin heißt ⎛ d11 0 ⎜ ⎜ 0 d22 D = ⎜ ⎜ . .. ⎝ .. . 0 ... ⎛ 1 ⎜ ⎜0 E = I = ⎜ ⎜. ⎝ .. 0
⎞ ... 0 . ⎟ .. . .. ⎟ ⎟ Diagonalmatrix, ⎟ .. . 0 ⎠ 0 dnn ⎞ 0 ... 0 . . .. ⎟ . .⎟ 1 ⎟ Einheitsmatrix, ⎟ .. .. . . 0⎠ ... 0 1
8.4 Quadratische Matrizen ⎛
0 ... ... ⎜ .. . . ⎜. . 0 = ⎜ ⎜. .. ⎝ .. . 0 ... ...
201 ⎞ 0 .. ⎟ .⎟ ⎟ .. ⎟ Nullmatrix. .⎠ 0
Bemerkungen 8.4.2 zu Definition 8.4.1 1. Bei einer symmetrischen Matrix sind die Eintr¨ age symmetrisch zur Hauptdiagonalen. Beispiel 8.4.2.1 1 Die Matrix 2
2 3 0 −1 3 −1 5
ist symmetrisch.
2. Die (n × n)-Einheitsmatrix wird auch mit In , In×n , En oder ¨ ahnlich bezeichnet. I“ steht f¨ ur Identit¨at. ” 3. Produkte mit Diagonalmatrizen sind einfach: Beispiel 8.4.2.2
⎛
1 Mit der Diagonalmatrix D = ⎝ 0 0 ⎛ ⎞ ⎛ 1 0 0 3 D · A = ⎝ 0 0 0 ⎠ · ⎝ −1 0 0 5 −1 ⎞ ⎛ ⎛ 3 1 0 1 A · D = ⎝ −1 4 1 ⎠ · ⎝ 0 −1 1 0 0 Allgemein gilt: Ist D =
d11 0
..
0
. dnn
⎞ 0 0 0 0 ⎠ und 0 5 ⎞ 1 0 4 1⎠ = 1 0 ⎞ 0 0 0 0⎠ = 0 5
⎛
⎞ 3 1 0 A = ⎝ −1 4 1 ⎠ ist −1 1 0 ⎛ ⎞ 3 1 0 ⎝ 0 0 0⎠, −5 5 0 ⎞ ⎛ 3 0 0 ⎝ −1 0 5 ⎠ . −1 0 0
eine Diagonalmatrix, so ergibt sich
D · A bzw. A · D aus der Matrix A durch Multiplikation der k-ten Zeile bzw. Spalte mit dem Diagonalelement dkk . F¨ ur die Einheitsmatrix I gilt insbesondere I · A = A · I = A. 4. Wie in den reellen Zahlen gilt auch mit der Nullmatrix 0 bei Matrizen 0 · A = 0. Aber aus A · B = 0 folgt nicht notwendigerweise A = 0 oder B = 0, z.B.
0 0 0 1 0 0 · = . 0 1 0 0 0 0
202
8 Lineare Gleichungssysteme und Matrizen
Definition 8.4.3 (inverse Matrix) 829
Eine Matrix A ∈ Rn×n heißt regul¨ar oder invertierbar :⇔ es gibt eine inverse Matrix A−1 ∈ Rn×n mit A · A−1 = I. Ansonsten heißt A singul¨ar.
Beispiel 8.4.4 830
Zur Untersuchung, ob die Matrix ⎛ ⎞ 1 2 1 A = ⎝ 0 −1 0 ⎠ 2 4 3
invertierbar ist, sucht man ⎛ ⎞ ⎛ 1 2 1 x11 ⎝ 0 −1 0 ⎠ · ⎝ x21 2 4 3 x31
eine Matrix X = (xij ) mit A · X = I, also ⎞ ⎛ ⎞ 1 0 0 x12 x13 x22 x23 ⎠ = ⎝ 0 1 0 ⎠ . x32 x33 0 0 1
Dies entspricht drei Gleichungssystemen mit verschiedenen rechten Seiten: ⎛ ⎞ ⎛ ⎞ ⎞ ⎛ ⎞ ⎞ ⎛ ⎞ ⎛ ⎛ x11 0 0 1 x13 x12 A · ⎝ x21 ⎠ = ⎝ 0 ⎠ , A · ⎝ x22 ⎠ = ⎝ 1 ⎠ , A · ⎝ x23 ⎠ = ⎝ 0 ⎠ x33 x32 x31 1 0 0
Die Gleichungssysteme kann man simultan l¨ osen: ⎛
2 −1 4
1 0 3
1 0 0
2 1 0
1 0 1
1 0 0 −1 −2 0
1 →⎝ 0 0
0 1 0
0 0 1
⎞ 3 2 −1 0 −1 0 ⎠ −2 0 1
⎛
0 1 0
⎞ 0 0 ⎠ · (−1) −2·I 1 ⎞ 0 −2 · II − III 0 ⎠ 1
1 ⎝ 0 2 ⎛ 1 →⎝ 0 0
Man kann nun rechts die einzelnen L¨osungsvektoren bzw. direkt die gesamte inverse Matrix ablesen: ⎛ ⎞ 3 2 −1 A−1 = ⎝ 0 −1 0 ⎠ . −2 0 1
8.4 Quadratische Matrizen
203
Tats¨achlich liefert ein Test: ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 2 1 3 2 −1 1 0 0 A · A−1 = ⎝ 0 −1 0 ⎠ · ⎝ 0 −1 0 ⎠ = ⎝ 0 1 0 ⎠ . 2 4 3 −2 0 1 0 0 1
Bemerkung 8.4.5 (Gauß-Jordan-Verfahren) Das Verfahren wie im Beispiel 8.4.4 kann man allgemein zur Berechnung einer Inversen zu A ∈ Rn×n nutzen. Man nennt es auch Gauß-JordanVerfahren: Man startet links mit der zu invertierenden Matrix A und rechts mit der Einheitsmatrix I und versucht dann, mit elementaren Zeilenoperationen links die Einheismatrix zu erzeugen. Gelingt das, steht rechts die inverse Matrix A−1 :
elementare I . A −→ A−1 I Zeilenoperationen
Man kann also sagen:
Die Matrix A ∈ Rn×n ist invertierbar, ⇔ sie l¨asst sich durch elementare Zeilenoperationen auf die Einheitsmatrix bringen, ⇔ bei der Gauß-Elimination entsteht keine Null-Zeile, ⇔ A hat vollen Rang.
Satz 8.4.6 F¨ ur Matrizen A, B ∈ Rn×n gilt:
1. Ist A invertierbar, so auch A−1 mit (A−1 )−1 = A, also A−1 · A = I.
2. Ist A invertierbar, so auch AT mit (AT )−1 = (A−1 )T .
3. Sind A und B invertierbar, so auch A·B mit (A·B)−1 = B −1 ·A−1 .
Bemerkungen 8.4.7 zu Satz 8.4.6 1. Die Definition 8.4.3 der inversen Matrix verlangt A · A−1 = I (auch Rechtsinverse genannt). Die erste Aussage von Satz 8.4.6 sagt aus, dass eine Rechtsinverse auch eine Linksinverse ist, was – da die Matrix-MatrixMultiplikation nicht kommutativ ist – nicht selbstverst¨ andlich ist.
831
204
8 Lineare Gleichungssysteme und Matrizen
Beispiel 8.4.7.1 Tats¨achlich gilt mit A = 8.4.4) auch
1
2 1 0 −1 0 2 4 3
und A−1 =
3 2 −1 0 −1 0 −2 0 1
(s. Beispiel
⎛
⎞ ⎛ ⎞ ⎛ ⎞ 3 2 −1 1 2 1 1 0 0 A−1 · A = ⎝ 0 −1 0 ⎠ · ⎝ 0 −1 0 ⎠ = ⎝ 0 1 0 ⎠ . −2 0 1 2 4 3 0 0 1 Dass A tats¨achlich immer die Inverse zu A−1 ist, sieht man am Gauß-JordanVerfahren (s. Bemerkung 8.4.5), wenn man es von rechts nach links liest: Aus A−1 und der Einheitsmatrix entsteht durch die entsprechenden inversen“ ” elementaren Zeilenoperationen die Einheitsmatrix und A. achlich die Einheitsmatrix ergibt, 2. Dass AT mit (A−1 )T multipliziert tats¨ sieht man wie folgt: AT · (A−1 )T
Satz 8.3.13
=
(A−1 · A)T
Satz 8.4.6, 1.
=
I T = I.
3. Dass sich die Inverse zu A · B aus dem Produkt der einzelnen Inversen in umgekehrter Reihenfolge ergibt, sieht man leicht, wenn man testweise ausmultipliziert: (A · B) · (B −1 · A−1 ) = A · (B · B −1 ) · A−1
= A · I · A−1 = A · A−1 = I.
Bemerkungen 8.4.8 (Lin. Gleichungssysteme mit invertierbaren Matrizen) 832
1. Ist die Matrix A bei einem linearen Gleichungssystem Ax = b invertierbar, so erh¨alt man durch Multiplikation mit A−1 ⇔
Ax = b
x = A−1 · A · x = A−1 · b,
d.h., das Gleichungssystem Ax = b ist bei einer invertierbaren Matrix A eindeutig l¨osbar mit L¨osung A−1 · b. Beispiel 8.4.8.1 Gesucht ist die L¨osung zu x1 2x1
+ 2x2 + x3 = 1 = 2 − x2 + 4x2 + 3x3 = 1
also zu Ax = b mit
8.4 Quadratische Matrizen
205
⎛
⎞ 1 2 1 A = ⎝ 0 −1 0 ⎠ 2 4 3
und
Nach Beispiel 8.4.4 ist A−1 = ⎛
⎛ ⎞ 1 b = ⎝2⎠. 1
3 2 −1 0 −1 0 −2 0 1
und damit
⎞⎛ ⎞ ⎛ ⎞ 3 2 −1 1 6 x = A−1 b = ⎝ 0 −1 0 ⎠ ⎝ 2 ⎠ = ⎝ −2 ⎠ . −2 0 1 1 −1 2. Ein lineares Gleichungssystem Ax = b kann man so interpretieren, dass man versucht, den Vektor b als Linearkombination der Spalten von A darzustellen. 833
Beispiel 8.4.8.2 Das lineare Gleichungssystem ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ 1 2 1 x1 1 ⎝ 0 −1 0 ⎠ · ⎝ x2 ⎠ = ⎝ 2 ⎠ 2 4 3 x3 1
ist gleichbedeutend mit der Suche nach einer Linearkombination ⎛ ⎞ ⎛ ⎛ ⎞ ⎞ ⎛ ⎞ 1 2 1 1 x1 · ⎝ 0 ⎠ + x2 · ⎝ −1 ⎠ + x3 · ⎝ 0 ⎠ = ⎝ 2 ⎠ . 2 4 3 1
Wenn die Matrix A invertierbar ist, so bedeutet dies, dass es f¨ ur jedes b genau eine entsprechende Linearkombination gibt, was wiederum ¨ aquivalent dazu ist, dass die Spalten von A linear unabh¨ angig sind, also eine Basis von Rn bilden.
Satz 8.4.9 Eine Matrix A ∈ Rn×n ist invertierbar genau dann, wenn die Spalten von A als Vektoren aufgefasst linear unabh¨ angig sind, also eine Basis des Rn bilden.
Bemerkung 8.4.10 Da eine Matrix A genau dann invertierbar ist, wenn AT invertierbar ist, gilt Satz 8.4.9 entsprechend auch f¨ ur die Zeilen von A: Eine Matrix A ∈ Rn×n ist invertierbar genau dann, wenn die Zeilen von A als Vektoren aufgefasst linear unabh¨ angig sind, also eine Basis des Rn bilden.
206
8 Lineare Gleichungssysteme und Matrizen
8.5 Determinanten
Definition 8.5.1 (Determinante) 834
Durch die Determinante wird jeder quadratischen Matrix A ∈ Rn×n eine Zahl det A ∈ R zugeordnet, wobei gilt: 1. Hat A Dreiecksgestalt, d.h. ⎛ ⎞ ⎛ ⎞ ∗ ... ∗ ∗ 0 . . . . .. ⎠ , A = ⎝ .. . . ⎠ oder A = ⎝ . . 0 ∗ ∗ ... ∗
so ist die Determinante das Produkt der Diagonalelemente.
2. Man kann Konstanten aus einer Zeile vor die Determinante ziehen. 3. Die Determinante ¨andert sich nicht bei Addition eines Vielfachen einer Zeile zu einer anderen Zeile. 4. Die Determinante wechselt das Vorzeichen bei Vertauschung zweier Zeilen.
Bemerkungen 8.5.2 zur Definition der Determinante 1. Durch Umformungen wie beim Gaußschen Eliminationsverfahren (s. Abschnitt 8.2) kann man also die Determinante berechnen. Beispiel 8.5.2.1 Es gilt ⎛
⎞ 2 herausziehen 2 6 2 ⎝ ⎠ det −1 −3 0 0 3 3 ⎛
⎞ ⎛ ⎞ 3 1 1 3 1 −3 0 ⎠ +I = 2 · det ⎝ 0 0 1 ⎠ 3 3 0 3 3 ⎞ 3 1 3 3 ⎠ = −2 · (1 · 3 · 1) = −6. 0 1 a11 . . . a1n .. geschrieben. 2. Bei A = (aij ) wird auch det A = |A| = ... . an1 . . . ann 1 = 2 · det ⎝ −1 0 ⎛ 1 = −2 · det ⎝ 0 0
Allerdings kann die Determinante auch negativ sein; insbesondere bei einer (1 × 1)-Matrix besteht also Verwechselungsgefahr mit dem Betrag!
8.5 Determinanten
207
Satz 8.5.3 (Determinanten bei (2 × 2)- und (3 × 3)-Matrizen) F¨ ur (2 × 2)- bzw. (3 × 3)-Matrizen gilt a11 a12 1. det = a11 · a22 − a21 · a12 , a21 a22 ⎛
a11 ⎜ 2. det ⎝ a21 a31
a12 a22 a32
⎞
a13 ⎟ a23 ⎠ = a33
+
+
+
−
a11 a21 a31 −
a12 a22 a32 −
835
a13 a23 a33
a11 a21 a31
a12 a22 a32
= a11 a22 a33 + a12 a23 a31 + a13 a21 a32
−a31 a22 a13 − a32 a23 a11 − a33 a21 a12 .
Bemerkung 8.5.4 zu Determinanten bei (2 × 2)- und (3 × 3)-Matrizen Die zweite Formel aus Satz 8.5.3 (f¨ ur eine (3 × 3)-Matrix) nennt man auch die Regel von Sarrus. F¨ ur beide Formeln gilt die Merkregel Hauptdiagonale(n) − Nebendiagonale(n). Allerdings ist die Interpretation dimensionsabh¨ angig: Bei einer (2 × 2)-Matrix bildet man nur das Produkt auf der einen Hauptuglich des Produkts auf der einen Nebendiagonalen diagonalen (a11 ·a22 ) abz¨ (a21 · a12 ).
Bei einer (3×3)-Matrix nutzt man jeweils drei Haupt- und Nebendiagonalen.
Achtung: F¨ ur (n×n)-Matrizen mit n > 3 gibt es keine so einfachen Formeln!
Beispiel 8.5.5
2 6 2 Zur Berechnung von det −1 −3 0 mit der Regel von Sarrus kann man sich 0 3 3 die ersten beiden Spalten nochmal hinter die Matrix schreiben und wendet dann die Regel Hauptdiagonalen minus Nebendiagonalen“ an: ” ⎛ ⎞ 2 6 2 2 6 det ⎝ −1 −3 0 ⎠ −1 −3 0 3 3 0 3 = 2 · (−3) · 3 + 6 · 0 · 0 + 2 · (−1) · 3 − 0 · (−3) · 2 − 3 · 0 · 2 − 3 · (−1) · 6 = −18 − 6 + 18 = −6.
208
8 Lineare Gleichungssysteme und Matrizen
Satz 8.5.6 (Laplacescher Entwicklungssatz) 836
Bezeichnet Aij die Matrix, die aus der Matrix A ∈ Rn×n , A = (aij ), entsteht, indem man die i-te Zeile und j-te Spalte streicht, so gilt f¨ ur jedes i und j zwischen 1 und n: det A =
n
(−1)
i+k
k=1
n (−1)l+j · alj · det(Alj ). · aik · det(Aik ) = l=1
Bemerkungen 8.5.7 zum Laplaceschen Entwicklungssatz 1. Der Laplacesche Entwicklungssatz entwickelt“ die ” Determinante entlang der i-ten Zeile bzw. der jten Spalte als Summe u ¨ber die Produkte aus dem Matrixelement mit der Determinante der an dieser Stelle gestrichenen Matrix und einem Vorzeichen entsprechend eines Schachbrett-artigen VorzeichenSchemas (s. Abb. 8.8).
⎛
⎞ + − + ⎜− + − ...⎟ ⎜ ⎟ ⎝+ − + ⎠ ... ...
Abb. 8.8 VorzeichenSchema.
Beispiel 8.5.7.1 Im Folgenden wird die angegebene Determinante nach der zweiten Zeile entwickelt. Dabei wird zun¨achst dargestellt, welche Zeile und Spalte jeweils bei den Streichmatrizen gestrichen werden. Die entsprechend gestrichenen Matrizen sind nochmal explizit genannt. Deren Determinante kann man beispielsweise mit Satz 8.5.3, 1., berechnen. 2 6 2 −1 −3 0 0 3 3 2 2 2 6 2 6 2 6 2 = − (−1) · −1 −3 0 + (−3) · −1 −3 0 − 0 · −1 −3 0 0 0 0 3 3 3 3 3 3 6 2 2 2 2 6 = − (−1) · + (−3) · − 0 · 0 3 0 3 3 3 = +1 · = − 6.
12
−3 ·
6
−0·
6
2. Bei einer konkreten Determinantenberechnung mit dem Laplaceschen Entwicklungssatz bietet sich die Entwicklung nach einer Zeile oder Spalte an, die m¨oglichst viele Nullen enth¨alt, da man dann die entsprechenden StreichDeterminanten gar nicht zu berechnen braucht.
8.5 Determinanten
209
3. Man kann die Verfahren auch mischen und beispielsweise zun¨ achst mittels Modifikationen entsprechend Definition 8.5.1 Zeilen oder Spalten mit mehr Nullen erzeugen und dann erst den Laplaceschen Entwicklungssatz anwenden. 4. Eine rekursive Implementierung einer Determinantenberechnung mit dem Laplaceschen Entwicklungssatz ist bzgl. der Laufzeit ung¨ unstig, da der Berechnungsaufwand fakult¨ats-m¨aßig w¨achst: Zur Berechnung einer n × nDeterminante sind n Determinanten der Dimension (n − 1) × (n − 1) zu berechnen.
Bemerkungen 8.5.8 (Interpretation der Determinante) 1. Determinanten entsprechen Fl¨achen- bzw. Rauminhalten in Bezug zu den Vektoren, die die Matrix als Spalten besitzt:
Fl¨ache des von a = aa12 und b = bb12 a 1 b1 | = | det a 2 b2 aufgespannten Parallelogramms. ⎛
⎞ a 1 b1 c 1 | det ⎝ a2 b2 c2 ⎠ | = a 3 b3 c 3
b1 a1 Volumen des von a = aa2 , b = b2 3 b3 c1 und c = cc2 aufgespannten Spats. 3
x2 x3 x2 x1
x1
Abb. 8.9 Parallelogramm im R2 und Spat im R3
Das Vorzeichen der Determinante kennzeichnet, ob (im Zweidimensionalen) das Parallelogramm von a und b im mathematisch positiven Sinn (gegen den Uhrzeiger) aufgespannt wird, bzw. ob (im Dreidimensionalen) die Vektoren a, b und c ein Rechtssystem bilden; in diesen F¨ allen ist die Determinante positiv, ansonsten negativ. 2. Im Dreidimensionalen entspricht die Determinante einer Matrix A, die aus den Spaltenvektoren a, b, c ∈ R3 besteht, also A = ( a b c), dem sogenannten Spatprodukt, das sich aus Kreuz- und Skalarprodukt zusammensetzt: det( a b c) = ( a × b) · c = a · ( b × c).
837
210
8 Lineare Gleichungssysteme und Matrizen
Satz 8.5.9 (Eigenschaften der Determinante) 838
F¨ ur Matrizen A, B ∈ Rn×n und λ ∈ R gilt:
1. A ist invertierbar ⇔ det A = 0. Dann ist det A−1 =
1 det A .
2. det(λ · A) = λn · det(A). 3. det(AT ) = det(A).
4. det(A · B) = det A · det B (Determinanten-Multiplikationssatz).
Bemerkungen 8.5.10 zu den Eigenschaften der Determinante 1. Mit dem Determinanten-Multiplikationssatz (vierte Aussage des Satzes) erh¨alt man leicht die erste Aussage, denn da die Determinante der Einheitmatrix I gleich 1 ist, gilt 1 = det(I) = det(A · A−1 ) und damit det A−1 =
Det.-Mult.-
= Satz
det A · det A−1 ,
1 det A .
2. Die zweite Aussage von Satz 8.5.9 ist klar, da man bei der Berechnung von det(λ·A) entsprechend der Defintion 8.5.1, 2., aus jeder einzelnen Zeile einen Faktor λ herausziehen kann, also insgesamt also n-mal. 3. Wegen det(AT ) = det(A) kann man bei der Berechnung einer Determinante durch Transformation auf eine Dreiecksmatrix bzw. bei entsprechenden Modifikationen wie in Definition 8.5.1 statt Zeilen- auch Spaltenoperationen nutzen, denn diese entsprechen Zeilenoperationen zu AT .
Bemerkung 8.5.11 (Determinanten und lineare (Un-)Abh¨angigkeit) Mit Hilfe der Determinante kann man entscheiden, ob n Vektoren im Rn linear (un-)abh¨angig sind: Mit Satz 8.4.9 und Satz 8.5.9, 1., gilt: angig, n Vektoren im Rn sind linear unabh¨ ⇔
die Matrix A, die diese Vektoren als Spalten besitzt, ist invertierbar,
⇔
det(A) = 0.
Im Zwei- bzw. Dreidimensionalen ist das auch anschaulich: Bei linearer Abh¨angigkeit sind die Vektoren Vielfache voneinander bzw. liegen in einer Ebene. Dann ist das aufgespannte Parallelogramm bzw. der aufgespannte Spat degeneriert zu einer Linie bzw. Fl¨ ache mit Inhalt 0, was entsprechend Bemerkung 8.5.8, 1., der Determinante entspricht.
8.5 Determinanten
211
Die Determinante kann man auch bei der L¨ osung von linearen Gleichungssystemen nutzen. Bei (2 × 2)-Systemen kann man die inverse Matrix direkt angeben:
Satz 8.5.12 Sei A =
A−1
a11 a12 . Ist det A = 0, so ist A invertierbar und es ist a21 a22
1 a22 −a12 · . = −a21 a11 det A
839
Beispiel 8.5.13 Es ist
1 2 3 4
−1
=
1 · 1·4−2·3
4 −2 −3 1
=
−2 1 1.5 −0.5
.
Interessiert man sich bei gr¨oßeren Systemen nur f¨ ur einzelne L¨ osungskomponenten, so kann man folgenden Satz nutzen:
Satz 8.5.14 (Cramersche Regel) Die Matrix A ∈ Rn×n sei invertierbar.
Die k-te Komponente xk der L¨osung des Gleichungssystems A · x = b Ak erh¨alt man durch xk = det det A , wobei Ak aus A entsteht, indem die k-te Spalte durch b ersetzt wird.
Beispiel 8.5.15 Gesucht sind die erste und zweite Komponente der L¨ osung des Gleichungssystems Ax = b mit ⎛ ⎞ ⎛ ⎞ 1 0 −3 2 A = ⎝ 3 1 0 ⎠ und b = ⎝ 1 ⎠ . 4 2 4 0 Es ist det A = −2 und man erh¨alt 1 2 −3 2 0 −3 3 1 0 1 1 0 4 0 4 0 2 4 2 −8 = = −1, x2 = = = 4. x1 = det A −2 det A −2 −1 (Tats¨achlich ist 4 die L¨osung des Gleichungssystems.) −1
840
212
8 Lineare Gleichungssysteme und Matrizen
8.6 Eigenwerte und -vektoren
Definition 8.6.1 (Eigenwert und Eigenvektor) 841
Sei A ∈ Rn×n . Gilt f¨ ur einen Vektor x0 ∈ Rn , x0 = 0, und λ0 ∈ R Ax0 = λ0 · x0 , so heißt λ0 Eigenwert von A mit Eigenvektor x0 .
Bemerkungen 8.6.2 zur Definition von Eigenwerten und -vektoren ur x0 = 0 und jedes λ gilt 1. Die Definition 8.6.1 fordert x0 = 0, da f¨ Ax0 = A · 0 = 0 = λ · 0 = λx0 , dies also ohne Informationsgehalt ist. 2. Mit dem Trick, dass man den Vektor x0 als Produkt I · x0 mit der Einheitsmatrix I darstellt, kann man die definierende Gleichung umformen: Ax0 = λ0 x0 = λ0 Ix0 ⇔ Ax0 − λ0 Ix0 = 0 ⇔ (A − λ0 I)x0 = 0. Der Wert λ0 ist also genau dann Eigenwert von A, wenn das homogene osung x0 = 0 besitzt. Gleichungssystem (A − λ0 I)x = 0 eine nichttriviale L¨
Dies ist gleichbedeutend damit, dass die Matrix A − λ0 I singul¨ ar ist, also det(A − λ0 I) = 0 ist:
Satz 8.6.3 Die Matrix A besitzt den Eigenwert λ ∈ R ⇔ det(A − λI) = 0.
Bemerkung 8.6.4 (charakteristisches Polynom) Zu einer quadratischen Matrix A nennt man p(λ) = det(A − λI) das charakteristische Polynom. Eigenwerte einer Matrix sind also genau die Nullstellen des charakteristischen Polynoms.
Beispiel 8.6.5 842
Ziel ist die Berechnung der Eigenwerte von A =
−1 4 . 4 5
8.6 Eigenwerte und -vektoren
213
Das charakteristische Polynom zu A ist
−1 4 1 0 det(A − λI) = det −λ 4 5 0 1
−1 − λ 4 = det 4 5−λ = (−1 − λ) · (5 − λ) − 4 · 4 = λ2 − (5 − 1)λ − 5 − 16
= λ2 − 4λ − 21. Damit gilt det(A − λI) = 0
λ2 − 4λ − 21 = 0 λ = −3 oder λ = 7.
⇔ ⇔
Also sind −3 und 7 Eigenwerte zu A.
Man kann nun entsprechende Eigenvektoren x finden als nichttriviale L¨ osungen von (A − λI)x = 0: • Zu λ = −3 ist
A − λI = Eine L¨ osung zu • Zu λ = 7 ist A − λI = Eine L¨osung zu
2 4 4 8
−1 4 4 5
+3
1 0 0 1
=
2 4 4 8
· x = 0 ist offensichtlich x =
−1 4 4 5
−8 4 4 −2
−7
1 0 0 1
=
.
−8 4 4 −2
−2 . 1
.
1 · x = 0 ist offensichtlich x = . 2
Tats¨achlich ist
−2 −1 4 −2 6 −2 A· = · = = −3 · 1 4 5 1 −3 1 und
1 −1 4 1 7 1 A· = · = = 7· . 2 4 5 2 14 2
214
8 Lineare Gleichungssysteme und Matrizen
Bemerkungen 8.6.6 1. Ist x0 Eigenvektor zum Eigenwert λ0 , so ist auch jeder Vektor α · x0 mit α = 0 Eigenvektor zum Eigenwert λ0 , denn A(α · x0 ) = α · Ax0 = α · λ0 x0 = λ0 (α · x0 ). Beispiel 8.6.6.1 (Fortsetzung von Beispiel 8.6.5) Auch x1 = 2 · −2 = −4 ist Eigenvektor zum Eigenwert −3 zur 1 2 4 : Matrix A = −1 4 5
−1 4 −4 12 −4 Ax1 = · = = −3 · . 4 5 2 −6 2
843
2. Eine Matrix muss (im Reellen) nicht unbedingt bzw. Eigen 0 Eigenwerte 1 vektoren besitzen. Beispielsweise besitzt A = −1 0 das charakteristische Polynom
0 1 λ 0 λ 1 det − = det = λ2 + 1, −1 0 0 λ −1 λ das keine Nullstellen im Reellen besitzt. Bei symmetrischen Matrizen gibt es allerdings immer Eigenwerte. Mehr noch:
Satz 8.6.7 (Eigenwerte und -vektoren bei symmetrischen Matrizen) Ist A ∈ Rn×n eine symmetrische Matrix, so gilt: 1. Alle Eigenwerte von A sind reell. 2. Eigenvektoren zu verschiedenen Eigenwerten von A stehen senkrecht aufeinander. 3. Es gibt eine Basis des Rn aus n zueinander orthogonalen Eigenvektoren von A.
Beispiel 8.6.8 (Fortsetzung von Beispiel 8.6.5) Die Matrix A =
−1 4 4 5
ist symmetrisch.
und 12 zu den EiDie in Beispiel 8.6.5 berechneten Eigenvektoren −2 1 genwerten −3 bzw. 7 stehen tats¨achlich senkrecht aufeinander. Zusammen bilden sie eine Basis des R2 .
8.7 Quadratische Formen
215
8.7 Quadratische Formen
Definition 8.7.1 (quadratische Form) Zu einer symmetrischen Matrix A ∈ Rn×n heißt die Abbildung
844
f : Rn → R, f (x) = xT · A · x quadratische Form.
Beispiel 8.7.2 Zur Matrix A =
3 1 0 112 027
erh¨alt man die quadratische Form
⎞ ⎛ ⎞ 3 1 0 x1 f (x1 , x2 , x3 ) = x1 x2 x3 · ⎝ 1 1 2 ⎠ · ⎝ x2 ⎠ 0 2 7 x3 ⎛ ⎞ 3x1 + x2 = x1 x2 x3 · ⎝ x1 + x2 + 2x3 ⎠ 2x2 + 7x3
⎛
= x1 · (3x1 + x2 ) + x2 · (x1 + x2 + 2x3 ) + x3 · (2x2 + 7x3 ) = 3x1 2 + 2x1 x2 + x2 2 + 4x2 x3 + 7x3 2 .
Bemerkung 8.7.3 Eine quadratische Form ist die mehrdimensionale Verallgemeinerung einer eindimensionalen quadratischen Funktion f : R → R, f (x) = a · x2 .
Definition 8.7.4 (positiv/negativ definit und indefinit) Sei A ∈ Rn×n eine symmetrische Matrix.
845 T
positiv definit x Ax > 0 :⇔ f¨ ur alle x ∈ Rn , x = 0, gilt T . negativ definit x Ax < 0 es gibt x1 , x2 ∈ Rn mit A heißt indefinit :⇔ T x1 Ax1 > 0 und xT2 Ax2 < 0.
1. A heißt 2.
Beispiel 8.7.5 0 ist indefinit, da beispielsweise gilt: Die Matrix A = 20 −2
1 0 (1 0) · A · = 2 > 0 und (0 1) · A · = −2 < 0. 0 1
216
8 Lineare Gleichungssysteme und Matrizen
Bemerkungen 8.7.6 zur Definition der Definitheit 1. Im Eindimensionalen entscheidet das Vorzeichen von a ∈ R, ob die Funktiur x = 0 positiv oder negativ sind. In dieser Hinsicht onswerte f (x) = a · x2 f¨ entspricht die positive bzw. negative Definitheit einer Matrix dem Vorzeichen einer Zahl, wobei es mit der Indefinitheit eine neue M¨ oglichkeit gibt, die im Eindimensionalen kein Pendant hat. 2. Gilt f¨ ur x = 0 nur xT Ax ≥ 0 (statt des strikten >“), so spricht man von ” einer positiv semidefiniten Matrix, entsprechend von negativ semidefinit. Aus den Eigenwerten einer symmetrischen Matrix A kann man direkt auf die Definitheit schließen: 846
Satz 8.7.7 (Definitheit von Matrizen und Eigenwerte) F¨ ur eine symmetrische Matrix A gilt: Alle Eigenwerte von A sind
positiv negativ
⇔
A ist
positiv definit . negativ definit
Ist auch 0 ein Eigenwert, so gilt nur semi-Definitheit.
Bemerkung 8.7.8 (Beweis von Satz 8.7.7) Satz 8.7.7 kann man sich klarmachen, wenn man entsprechend Satz 8.6.7 eine Basis {v1 , . . . , vn } aus zueinander orthogonalen Eigenvektoren von A betrachtet: Sind λi die entsprechenden Eigenwerte, also Av1 = λi vi , so gilt f¨ ur ein beliebiges x ∈ Rn , geschrieben als Linearkombination der Basisvektoren, also x = α1 v1 + . . . + αn vn : xT Ax = xT A(α1 v1 + . . . + αn vn ) = xT (α1 Av1 + . . . + αn Avn ) = (α1 v1 + . . . + αn vn )T (α1 λ1 v1 + . . . + αn λn vn ). Wenn man hier nun jeden Summanden mit jedem multipliziert, ergeben sich ur i = j, zum einen Produkte vi T vi = ||vi ||2 und zum anderen vi T vj = 0 f¨ alt man da die Vektoren vk orthogonal zueinander sind. Damit erh¨ xT Ax = α1 2 λ1 ||v1 ||2 + . . . + αn 2 λn ||v1 ||n . An dieser Darstellung sieht man, dass xT Ax positiv bzw. negativ ist, wenn alle λi gr¨oßer bzw. kleiner Null sind und (mindestens) ein αi = 0, also x = 0 ist. Bei unterschiedlichen Vorzeichen oder Eigenwerten gleich 0 kann man bei der quadratischen Form unterschiedliche Vorzeichen oder 0 zu einem x = 0 erhalten.
8.7 Quadratische Formen
217
Der folgende Satz 8.7.9 nutzt die sogenannten Hauptunterdeterminanten (auch Hauptabschnittsdeterminanten oder Hauptminoren genannt) zur Untersuchung der Definitheit einer Matrix; das sind die Determinanten von quadratischen Teilmatrizen ausgehend vom linken oberen Element (s. Beispiel 8.7.10):
Satz 8.7.9 (Definitheit von Matrizen und Determinanten) 1. F¨ ur eine symmetrische Matrix A ∈ Rn×n gilt: ⇔
a) A ist positiv definit
b) A ist negativ definit ⇔ 2. F¨ ur eine Matrix A = A ist
a
b b d
positiv definit negativ
Beispiele 8.7.10
s¨amtliche Hauptunterdeterminanten sind positiv.
die Hauptunterdeterminanten sind abwechselnd negativ und positiv. ∈ R2×2 gilt: ⇔
a
> 0 und det(A) > 0.
0, det = 2 > 0, und det(A) = 2 > 0. 1 1 ⎛
2. Die Matrix A = positiv definit.
1 −1 −1 2
ist wegen det(1) = 1 > 0 und det(A) = 1 > 0
1 Die Matrix B = −A = −1 1 −2 ist wegen det(−1) = −1 < 0 und det(B) = 1 > 0 negativ definit, was man auch direkt aus der positiven Definitheit von A folgern kann.
Bemerkungen 8.7.11 zu Satz 8.7.9 1. Ist B negativ definit, so ist klar, dass A = −B positiv definit ist. Da bei einer (m × m)-Matrix M nach Satz 8.5.9 gilt
det(−M ) = det((−1) · M ) = (−1)m · det(M ), folgt die Aussage 1b) aus 1a). 2. Die zweite folgt aus der ersten, da die Hauptunterdeterminanten Aussage zu A = ab db zum einen a und zum anderen det(A) sind.
847
9
Funktionen mit mehreren Veranderlichen ¨
Aufbauend auf eindimensionalen Funktionen f : R → R werden in diesem und den folgenden Kapiteln Funktionen f : Rn → Rm betrachtet, z.B. f : R3 → R2 , f (x, y, z) = (x2 · sin(y · z), x + y). Besonderer Fokus liegt dabei auf Funktionen in der Ebene und im Raum, die neben der kartesischen Darstellung auch in anderen Koordinatensystemen (Polar-, Kugel- und Zylinerkoordinaten) dargestellt werden k¨ onnen.
9.1 Einfu ¨ hrung Bemerkungen 9.1.1 (Darstellung von mehrdimensionalen Funktionen) 1. F¨ ur die Darstellung einer Funktion f : R → R braucht man eine x- und eine f (x)-Achse, also zwei Dimensionen. Zur Darstellung einer Funktion f : Rn → Rm braucht man entsprechend n + m Dimensionen, was bei n + m > 3 das menschliche Vorstellungsverm¨ ogen u ¨bersteigt. 2. Eine Funktion f : R2 → R kann man sich im Raum vorstellen, indem man das Definitionsgebiet R2 als Ebene zugrunde legt und die Funktionswerte nach oben abtr¨agt. Das dadurch entstehende Funktionsgebirge“ kann man ” visualisieren. Abb. 9.1 zeigt links beispielsweise das Funktionsgebirge zu f : R2 → R, f (x, y) = sin(x · y). Eine alternative Darstellungsart zu Funktionen f : R2 → R ist (wie auf Wanderkarten) die Darstellung dieses Funktionsgebirges mit Hilfe von H¨ohenlinien, s. Abb. 9.1 rechts.
© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 G. Hoever, Höhere Mathematik kompakt, https://doi.org/10.1007/978-3-662-62080-9_9
219
900
9 Funktionen mit mehreren Ver¨ anderlichen
.2
−0
0 −0
.2
0.4
−0.2
.4
−0
.8
0 0.4.2 0
0.2
2
−0
220
0.40.2
0.8
−0 .8
.6
0.8
0.6
−0 .4
0.6
1
0
f (x, y)
−0
.6
−0
0.8
−0.8 −0.6 −0.4
y
1
0.2
−0.2
0.4 0.6 0.2
0
0 0.2
0
0
0 −0.2 −0.4
0.6
0
0.2
0.4
−0.2
0.8
−0.8
−0 .4
−0.6
1
−0 .8
0
−0 .6
−0.6
.2
−2 −2
−0.2
−1 2 −2
.4
−0
0.2
x
0.8
0.2 0.4
−0
.2 −0 0
0.2 0.4
0
0
−0
0.6
0.8
−1
.8
1 0 y
0.4
−1 −2
−1
0.6
2
−1
0
x
1
2
Abb. 9.1 Dreidimensionale Darstellung und Darstellung durch H¨ ohenlinien.
3. In der Praxis kommen h¨aufig Funktionen vor, die jedem Raumpunkt einen Wert zuweisen, also Funktionen f : R3 → R (Skalarfelder ), und solche, die jedem Raumpunkt einen dreidimensionalen Vektor zuordnen, also Funktionen f : R3 → R3 (Vektorfelder ). Bei Skalarfeldern kann man sich vorstellen, dass der gesamte Raum mit Werten gef¨ ullt ist, z.B. bei Temperaturfeldern, dass jeder Raumpunkt eine bestimmte Temperatur besitzt. Bei Vektorfeldern ist in jedem Raumpunkt ein Vektor angeheftet“. ”
Definition 9.1.2 (partielle Funktion) 901
Aus einer Funktion f : Rn → R entstehen partielle Funktionen, indem man alle Variablen bis auf eine fixiert.
Beispiel 9.1.3 Sei f (x, y) = sin(x·y). Die partiellen Funktionen bei fixierter Variable y = y0 sind Sinusfunktionen, z.B. bei y0 = 1 : y0 = 2 : y0 = 0 :
f (x, 1) = sin(x) f (x, 2) = sin(2x) f (x, 0) = sin(0x) = 0.
Bemerkung 9.1.4 zu partiellen Funktionen 902
Bei Funktionen f : R2 → R k¨onnen die partiellen Funktionen als Schnitte durch das Funktionsgebirge aufgefasst werden. Oft besteht eine Visualisierung gerade aus der Darstellung der partiellen Funktionen (s. Abb. 9.1 links). Mit Hilfe der partiellen Funktionen kann man sich ggf. eine Vorstellung von der Funktion machen.
9.2 Koordinatensysteme
221
9.2 Koordinatensysteme Die u ¨bliche Darstellung einer Funktion bzgl. eines Koordinatensystems mit zueinander orthogonalen Achsen nennt man auch kartesische Darstellung oder Darstellung in kartesischen Koordinaten. Bei manchen Funktionen, insbesondere bei rotationssymmetrischen Funktionen, bieten sich andere Koordinatensysteme an.
Definition 9.2.1 (Polarkoordinaten) In Polarkoordinaten wird ein Punkt (x, y) ∈ R2 statt mit x und y durch seinen Abstand r zum Nullpunkt und den Winkel ϕ zur positiven xAchse beschrieben:
x r · cos ϕ = . y r · sin ϕ
y
(x, y) r ϕ x
Abb. 9.2 Polarkoordinaten.
Bemerkung 9.2.2 zur Bezeichnungsweise Statt des Buchstabens r verwendet man oft auch den Variablennamen .
Beispiel 9.2.3 Sei f (x, y) = x2 + y 2 .
f(x, y) 4
Die partiellen Funktionen, also Schnitte in x- oder in y-Richtung, sind Parabeln, s. Abb. 9.3.
3
Der Abstand eines Punktes (x, y) ∈ R2 2 zum Ursprung ist r = x + y 2 , und daher ist 2 x2 + y 2 = r 2 . f (x, y) =
1
2
0 −2
−1
0
x
1
2 −2
−1
1 0 y
2
Abb. 9.3 Rotationsparaboloid.
In Polarkoordinaten ergibt sich also keine ϕ-Abh¨ angigkeit; der Funktionswert bei einem Punkt mit Abstand r zum Ursprung ist gleich r2 : f (r) = r2
Die Funktion ist also auf Kreisen mit Radius r konstant, d.h., das Funk” tionsgebirge“ ist rotationssymmetrisch. Es entsteht aus der Rotation einer 2 ur eindimensionalen Parabel f (r) = r , genauer des Parabelasts f (r) = r2 f¨ r ≥ 0, da bei Polarkoordinaten nur nichtnegative r betrachtet werden.
Die entsprechende Figur nennt man Rotationsparaboloid.
903
222
9 Funktionen mit mehreren Ver¨ anderlichen
Bemerkung 9.2.4 (Rotationssymmetrie) H¨angt bei einer Funktion f : R2 → R der Funktionswert nur von x2 + y 2 bzw. r 2 = x2 + y 2 r =
ab, so ist die Funktion konstant auf Kreisen um den Ursprung, also rotationssymmetrisch. Das Funktionsgebirge“ erh¨alt man, indem man die eindimensionale Funk” tion f (r), r ≥ 0, um den Ursprung rotieren l¨ asst.
Bemerkung 9.2.5 (Darstellung in Polarkoordinaten) Eine in kartesischen Koordinaten gegebene Funktion f (x, y) kann man entsprechend Definition 9.2.1 in Polarkoordinaten darstellen durch f˜(r, ϕ) = f (r · cos ϕ, r · sin ϕ). Meist schreibt man nur f (r, ϕ) statt f˜(r, ϕ). Durch Verwendung der Buchstaben r und ϕ ist klar, dass Polarkoordinaten gemeint sind. Beispiel 9.2.5.1 Zur Funktion f : R2 → R, f (x, y) = x2 + y 2 erh¨alt man die Darstellung in Polarkoordinaten durch f˜(r, ϕ) = (r · cos ϕ)2 + (r · sin ϕ)2
= r2 · (cos2 ϕ + sin2 ϕ) = r2 .
Man schreibt auch f (r, ϕ) = r2 , oder – wenn klar ist, dass ein zweidimensionaler Definitionsbereich gemeint ist – f (r) = r2 .
Definition 9.2.6 (Zylinderkoordinaten) 904
z
(x, y, z)
Bei Zylinderkoordinaten im R3 werden zwei Dimensionen wie bei den Polarkoordinaten beschrieben; die dritte y bleibt unver¨andert:
⎛ ⎞ ⎛ ⎞ ϕ x cos ϕ x ⎝ y ⎠ = ⎝ sin ϕ ⎠ z z Abb. 9.4 Zylinderkoordinaten.
9.2 Koordinatensysteme
223
Beispiel 9.2.7 Ein Zylinder um die z-Achse von z = 0 bis z = 2 mit Radius 1 (s. Abb. 9.5) kann in Zylinderkoordinaten beschrieben werden durch ⎧⎛ ⎞ ⎛ ⎞ cos ϕ ⎨ x ⎝ y ⎠ = ⎝ sin ϕ ⎠ ⎩ z z ⎫ ⎬ ∈ [0, 1], ϕ ∈ [0, 2π], z ∈ [0, 2] . ⎭
z 2 y −1
1 x
Abb. 9.5 Zylinder.
Bemerkung 9.2.8 (Darstellung in Zylinderkoordinaten) Eine in kartesischen Koordinaten gegebene Funktion f (x, y, z) kann entsprechend der Definition 9.2.6 in Zylinderkoordinaten ausgedr¨ uckt werden: f˜(, ϕ, z) = f ( cos ϕ, sin ϕ, z). Wie bei den Polarkoordinaten zeigt hier die Verwendung der Buchstaben , ϕ und z den Gebrauch der Zylinderkoordinaten an, so dass man oft nur f (, ϕ, z) statt f˜(, ϕ, z) schreibt. Beispiel 9.2.8.1 Sei f : R3 → R in kartesischen Koordinaten gegeben durch f (x, y, z) = (x2 + y 2 ) · z. Dann erh¨alt man f in Zylinderkoordinaten ausgedr¨ uckt durch f˜(, ϕ, z) = f ( cos ϕ, sin ϕ, z) = ( cos ϕ)2 + ( sin ϕ)2 · z = 2 (cos2 ϕ + sin2 ϕ) · z
= 2 · z.
Bemerkung 9.2.9 (lokales Koordinatensystem zu Zylinderkoordinaten) Bei Vektorfeldern F : R3 → R3 braucht man zur Darstellung eines Funktionsvektors F (x) ein Koordinatensystem. Statt eines kartesischen Koordinatensystems mit Einheitsvektoren ex , ey und ez in x-, y- und z-Richtung nutzt man bei Zylindersymmetrien lokale Zylinderkoordinaten:
905
224
9 Funktionen mit mehreren Ver¨ anderlichen
Zu einem Punkt im R3 betrachtet man lokal, d.h abh¨angig vom gew¨ahlten Punkt, Koordinatenachsen in -, ϕ- und z-Richtung, s. Abb. 9.6. Man kann den Funktionswert dann in Abh¨angigkeit von diesen Richtungen e , eϕ und ez angeben.
ez
z
eϕ e y
x Abb. 9.6 Lokales Koordinatensystem zu Zylinderkoordinaten.
Beispiele 9.2.9.1
1. Das magnetische Feld eines stromdurchflossenen Leiters ist tangential zu Kreisen um den Leiter gerichtet; die L¨ ange nimmt umgekehrt proportional zum Abstand zum Leiter ab. Legt man den Leiter in Richtung der z-Achse, wird (in lokalen Zylinderkoordinaten) das Feld mit einer geeigneten Konstanten c beschrieben durch c · eϕ . F (, ϕ, z) = 2. Betrachtet wird das Vektorfeld F : R3 → R3 , das in lokalen Zylinderkoordinaten gegeben ist durch 906
1 F (, ϕ, z) = · eϕ + · ez . z 0 F
Welchen Funktionsvektor F0 erh¨alt man an der in kartesischen Koordinaten gegebenen Stelle (x, y, z) = (1, 1, 2)?
z
F0 =
e
2
ex
1 2
1 2 · eϕ + · ez . 2
y
1
Stellt man sich das entsprechende lokale Koordinatensystem an der Stelle vor, so sieht man, dass dieser Vektor in kartesischen Koordinaten dargestellt wird durch F0 = −1 · ex + 1 · ey +
ey eϕ
In Zylinderkoordinaten√wird die Stelle beschrieben durch = 2, ϕ = π4 und z = 2. In lokalen Zylinderkoordinaten ist also √
ez
1 2
· ez
1
x
Abb. 9.7 Funktionsvektor.
⎞ −1 = ⎝ 1 ⎠. 1/2 ⎛
9.2 Koordinatensysteme
225
Definition 9.2.10 (Kugelkoordinaten) Bei Kugelkoordinaten im R3 wird ein Punkt im R3 durch seinen Abstand r vom Ursprung, durch den Winkel ϕ wie bei den Polar- bzw. Zylinderkoordinaten und durch den Winkel ϑ zur z-Achse beschrieben: ⎛ ⎞ ⎛ ⎞ x r cos ϕ · sin ϑ ⎝ y ⎠ = ⎝ r sin ϕ · sin ϑ ⎠ . z r cos ϑ
(x, y, z)
z
r sin ϑ
r ϑ
r sin ϑ ϕ r sin ϑ c os ϕ
y
r sin ϑ s in ϕ
x
Abb. 9.8 Kugelkoordinaten.
Bemerkung 9.2.11 (Unterschied zwischen und r) uckt der Buchstabe wie bei Bei der Beschreibung von Punkten im R3 dr¨ den Zylinderkoordinaten den Abstand zur z-Achse aus, wohingegen r den Abstand zum Ursprung beschreibt.
Beispiel 9.2.12 Eine auf der (x, y)-Ebene liegende Halbkugel kann man beschreiben durch ⎫ ⎧⎛ ⎞ ⎛ ⎞ r cos ϕ · sin ϑ ⎬ ⎨ x π ⎝ y ⎠ = ⎝ r sin ϕ · sin ϑ ⎠ r ∈ [0, 1], ϕ ∈ [0, 2π], ϑ ∈ [0, ] . ⎩ 2 ⎭ z r cos ϑ
Eine Halbkugel rechts von der (y, z)-Ebene ist gegeben durch ⎫ ⎧⎛ ⎞ ⎛ ⎞ r cos ϕ · sin ϑ ⎬ ⎨ x π π ⎝ y ⎠ = ⎝ r sin ϕ · sin ϑ ⎠ r ∈ [0, 1], ϕ ∈ [− , ], ϑ ∈ [0, π] . ⎭ ⎩ 2 2 z r cos ϑ
Bemerkung 9.2.13 (Darstellung in Kugelkoordinaten)
Eine in kartesischen Koordinaten gegebene Funktion f (x, y, z) kann entsprechend der Definition 9.2.10 in Kugelkoordinaten ausgedr¨ uckt werden: f˜(r, ϕ, ϑ) = f (r cos ϕ · sin ϑ, r sin ϕ · sin ϑ, r cos ϑ). Wie bei den Polar- und Zylinderkoordinaten zeigt hier die Verwendung der Buchstaben r, ϕ und ϑ den Gebrauch der Kugelkoordinaten an, so dass man oft nur f (r, ϕ, ϑ) statt f˜(r, ϕ, ϑ) schreibt. Beispiel 9.2.13.1 (vgl. Beispiel 9.2.8.1) Sei f : R3 → R in kartesischen Koordinaten gegeben durch
907
226
9 Funktionen mit mehreren Ver¨ anderlichen f (x, y, z) = (x2 + y 2 ) · z. Dann erh¨alt man f in Kugelkoordinaten als f˜(r, ϕ, ϑ) = f (r cos ϕ · sin ϑ, r sin ϕ · sin ϑ, r cos ϑ) = (r cos ϕ · sin ϑ)2 + (r sin ϕ · sin ϑ)2 · r cos ϑ = r2 sin2 ϑ · (cos2 ϕ + sin2 ϕ) · r cos ϑ = r3 sin2 ϑ cos ϑ.
Bemerkung 9.2.14 (lokales Koordinatensystem zu Kugelkoordinaten) 908
Bei einer Darstellung eines Vektorfelds F : R3 → R3 in Kugelkoordinaten, nutzt man wieder lokale Koordinatensysteme: Zu einem Punkt im R3 betrachtet man lokal, d.h abh¨angig vom gew¨ahlten Punkt, Koordinatenachsen in r-, ϕ- und ϑ-Richtung. Man kann den Funktionswert dann in Abh¨angigkeit von diesen Richtungen er , eϕ und eϑ angeben.
z
eϕ
eϑ
Beispiel 9.2.14.1 Das elektrische Feld einer Punktladung im Ursprung ist radial vom Ursprung weg bzw. zu ihm hin gerichtet und f¨allt mit dem Quadrat des Abstands zum Ursprung ab.
er
y
x Abb. 9.9 Lokales Koordinatensystem zu Kugelkoordinaten.
In lokalen Zylinderkoordinaten wird es also mit einer geeigneten Konstanten c beschrieben durch c · er . r2 Da die lokalen Koordinatenvektoren er , eϕ und eϑ in dieser Reihenfolge kein Rechtssystem sondern ein Linkssystem bilden, nutzt man h¨ aufig die Reihenfolge r, ϑ und ϕ (statt r, ϕ und ϑ). In dieser Reihenfolge (er , eϑ und eϕ ) bilden die Koordinatenvektoren dann ein Rechtssystem. F (r, ϕ, ϑ) =
10
Differenzialrechnung bei mehreren Ver¨ anderlichen
Die Differenzialrechnung in mehreren Ver¨anderlichen f¨ uhrt die eindimensionale Analysis und die lineare Algebra zusammen. Die Bausteine, wie z. B. Ableitungen und Vektoren sind alle aus den vorherigen Kapiteln bekannt und vereinigen sich hier zu kraftvollen Werkzeugen. Zur Schreibweise: Der Variablenbuchstabe x kommt hier und im folgenden Kapitel in verschiedenen Bedeutungen vor: Zum einen dient er der Beschreibung einer Komponente in einem 2- oder 3-Tupel (z.B. bei einem Punkt (x, y) ∈ R2 ), andererseits beschreibt er einen allgemeinen Punkt im Rn . Zur besseren Unterscheidung wird der Buchstabe im Folgenden fett gedruckt, wenn er einen allgemeinen Punkt im Rn beschreibt, also x ∈ Rn .
10.1 Partielle Ableitung und Gradient In diesem Abschnitt werden reellwertige Funktionen f : Rn → R betrachtet, z.B. f : R3 → R, (x, y, z) → x2 · sin(y · z).
Definition 10.1.1 (partielle Ableitung) Die partielle Ableitung einer Funktion f : Rn → R nach der i-ten Variablen xi erh¨alt man, indem alle Variablen bis auf die i-te festgehalten werden und die so festgelegte partielle Funktion wie gew¨ ohnlich abgeleitet wird. Die partielle Ableitung wird mit
∂f df d ∂xi , dxi , dxi f
930
oder fxi bezeichnet.
© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 G. Hoever, Höhere Mathematik kompakt, https://doi.org/10.1007/978-3-662-62080-9_10
227
228
10 Differenzialrechnung bei mehreren Ver¨ anderlichen
Beispiel 10.1.2 Zu f (x, y, z) = x2 · sin(y · z) ist ∂ f (x, y, z) = 2x · sin(yz) ∂x
und
∂ f (x, y, z) = x2 · cos(yz) · y. ∂z
Bemerkung 10.1.3 (Ableitungen h¨oherer Ordnung) Existieren die partiellen Ableitungen f¨ ur jedes x ∈ Rn , so erh¨ alt man da∂ n durch Funktionen ∂xi f : R → R, die man wiederum partiell ableiten kann. Die so entstandenen Funktionen heißen partielle Ableitungen zweiter Ordnung, entsprechend f¨ ur h¨ohere Ordnungen. Die Schreibweisen f¨ ur derartige ∂2f d2 f ∂ ∂ f, , oder f . Ableitungen sind ∂x x x i j ∂xi ∂xj dxi dxj i ∂xj
931
Beispiel 10.1.3.1 Zu f (x, y, z) = x2 · sin(y · z) ist
∂ ∂ ∂2f f (x, y, z) (x, y, z) = ∂x2 ∂x ∂x ∂ 2x · sin(yz) = 2 sin(yz), = ∂x ∂ ∂ ∂2f (x, y, z) = f (x, y, z) ∂z∂x ∂z ∂x ∂ 2x · sin(yz) = 2x · cos(yz) · y, = ∂z ∂ 2 ∂2f (x, y, z) = x · cos(yz) · y ∂x∂z ∂x ∂2f (x, y, z). = 2x · cos(yz) · y = ∂z∂x Man sieht:
∂2f ∂2f = (x, y, z). Dies gilt allgemein: ∂x∂z ∂z∂x
1
Satz 10.1.4 (Satz von Schwarz) F¨ ur eine Funktion f : Rn → R gilt1 ∂2f ∂2f = , ∂xi ∂xj ∂xj ∂xi d.h., die Reihenfolge der Differenziationen ist vertauschbar. 1 unter gewissen Voraussetzungen, beispielsweise falls die Ableitungen zweiter Ordnung existieren und stetig sind
10.1 Partielle Ableitung und Gradient
229
Die verschiedenen partiellen Ableitungen fasst man im Gradienten zusammen:
Definition 10.1.5 (Gradient) Zu einer Funktion f : Rn → R heißt1
∂f ∂f ∇f (x) := grad f (x) := (x), . . . , (x) ∂x1 ∂xn
932
Gradient von f im Punkt x. (∇f wird nabla f“ gelesen.) ” 1
Beispiel 10.1.6 Zur Funktion f (x, y, z) = x2 · sin(yz) ist ∇f (x, y, z) = grad f (x, y, z) = 2x · sin(yz), x2 · cos(yz) · z, x2 · cos(yz) · y .
Bemerkungen 10.1.7 zum Gradienten
1. Der Gradient wird u ¨blicherweise als Zeilenvektor aufgefasst. 2. Die Bezeichnung ∇f“ f¨ ur den Gradienten ist vor allem in der Physik ge” br¨auchlich.
Satz 10.1.8 1. Der Gradient einer Funktion weist in die Richtung des steilsten Anstiegs2 .
933
2. Senkrecht zum Gradienten ¨andert sich der Funktionswert nicht2 . 934 2
Bemerkung 10.1.9 zur Richtung des steilsten Anstiegs“
” Genauer bedeutet Satz 10.1.8, 1., folgendes: Betrachtet man eine Funktion f : Rn → R und einen Punkt x0 ∈ Rn , so weist grad f (x0 ) im Definitionsarksten w¨ achst. Bei einer gebiet von x0 aus in die Richtung, in der f am st¨ andert sich Richtung im Definitionsgebiet, die senkrecht zu grad f (x0 ) ist, ¨ der Funktionswert ausgehend von x0 lokal nicht, genauer: Die Richtungsableitung in diese senkrechte Richtung ist gleich 0. Zur exakten Beschreibung der Richtungsableitung s. Abschnitt 10.3.3.
1 2
falls alle partiellen Ableitungen existieren falls alle partiellen Ableitungen existieren und stetig sind
230
10 Differenzialrechnung bei mehreren Ver¨ anderlichen
Beispiel 10.1.9.1 Zur Funktion f (x, y) = −x · y 2 ist 2
grad f (x, y) = (−y , −2xy), also beispielsweise speziell grad f (1, −1) = (−1, 2). Die Richtung des steilsten Anstiegs ausgehend vom Punkt (1, −1) des Definitionsgebiets ist also in Richtung (−1, 2), s. Abb. 10.1.
f (x, y) 15 10 5 0 −5 −10 −15 −2
−1
0
x1 2
−2
−1
0
y
1
2
Abb. 10.1 Richtung des steilsten Anstiegs.
Bemerkung 10.1.10 (Gradientenverfahren) Satz 10.1.8, 1., wird ausgenutzt in Verfahren zur lokalen Optimierung: 935
1
Sucht man ausgehend von einem Startpunkt1 x(0) eine Maximalstelle, so geht man ein St¨ uck in die Richtung des Gradienten, also x(1) = x(0) + λ0 · grad f (x(0) ),
936
x(2) = x(1) + λ1 · grad f (x(1) ), allgemein: x(i+1) = x(i) + λi · grad f (x(i) ). Dabei beschreibt λi die Schrittweite. Die genaue Wahl dieser Schrittweite ist oft nicht ganz einfach. Eine m¨ogliche Schrittweitensteuerung ist die folgende: • Ist f (x(i+1) ) ≤ f (x(i) ), so halbiert man die Schrittweite sukzessive, bis man eine Stelle mit gr¨oßerem Funktionswert gefunden hat.
937
• Ist f (x(i+1) ) > f (x(i) ), so testet man – um gegebenenfalls schneller voran zu kommen – eine doppelt so große Schrittweite und arbeitet mit der Schrittweite weiter, die den gr¨oßeren Funktionswert liefert. Sucht man eine Minimalstelle, so setzt man entsprechend x(i+1) = x(i) − λi · grad f (x(i) ). Dieses Vorgehen nennt man Gradientenverfahren.
1
Zur Schreibweise: Bei einer Folge von Werten aus dem Rn nutzt man h¨ aufig einen oberen Index, den man in Klammern setzt, um ihn von einer Potenz zu unterscheiden, z.B. x(i) , um (i) (i) dann ggf. die Komponenten mit x(i) = (x1 , . . . , xn ) zu benennen.
10.1 Partielle Ableitung und Gradient
231
Beispiel 10.1.10.1 Gesucht ist eine Minimalstelle zu f (x, y) = 12 x2 + y 2 − xy − x.
Es ist
grad f (x, y) = (x − y − 1, 2y − x). Ausgehend von x(0) = (0, 1) erh¨alt man mit der Schrittweite λ = 21 : x(1) = (0, 1) − x
(2)
=
x(3) =
1 2 · grad f (0, 1) (1, 0) − 12 · grad f (1, 0) (1, 12 ) − 21 · grad f (1, 12 )
= (0, 1) − = (1, 0) −
1 2 1 2
= (1, 12 ) −
· (−2, 2) = (1, 0),
· (0, −1) = (1, 21 ),
1 2
· (− 12 , 0) = ( 54 , 12 ).
Bemerkung 10.1.11 (Numerische Ableitung) 1. Im Eindimensionalen kann man die Ableitung n¨ aherungsweise mit Hilfe des Differenzenquotienten berechnen (s. Bemerkung 5.1.9). Dies gilt auch f¨ ur ∂f ; dabei darf man nur in der i-ten Komponente partielle Ableitungen ∂x i wackeln“: F¨ ur kleine h ist ” f (x1 , . . . , xi + h, . . . , xn ) − f (x1 , . . . , xi , . . . , xn ) ∂f . (x1 , . . . , xn ) ≈ ∂xi h F¨ uhrt man dies f¨ ur alle Komponenten x1 , . . . , xn durch, erh¨ alt man eine numerische Approximation des Gradienten. 2. Die numerische Berechnung des Gradienten kann man beispielsweise beim Gradientenverfahren (s. Bemerkung 10.1.10) nutzen, so dass man nur die zu optimierende Funktion aufrufen muss, ohne explizit die Ableitungen implementieren zu m¨ ussen.
Bemerkungen 10.1.12 (Darstellungen des Gradienten) 1. Entsprechend der Darstellung eines Vektors in der Form ⎛ ⎞ a1 ⎝ a2 ⎠ = a1 · ex + a2 · ey + a3 · ez . a3
(s. Beispiel 7.2.3.1) stellt man einen Gradienten zu einer Funktion f : R3 → R auch dar als grad f =
∂f ∂f ∂f · ex + · ey + · ez . ∂x ∂y ∂z
2. Ist eine Funktion f : R3 → R in Kugel- oder Zylinderkoordinaten angegeben, so ist die Gradientendarstellung in den lokalen Koordinatensystemen (vgl. Bemerkung 9.2.9 und Bemerkung 9.2.14) transparenter, s. Satz 10.1.13.
938
232
10 Differenzialrechnung bei mehreren Ver¨ anderlichen
Satz 10.1.13 (Gradient in Zylinder- und Kugelkoordinaten) 939
1. F¨ ur eine Funktion f = f (, ϕ, z) : R3 → R in Zylinderkoordinaten gilt1 grad f =
∂f 1 ∂f ∂f · e + · · eϕ + · ez . ∂ ∂ϕ ∂z
2. F¨ ur eine Funktion f = f (r, ϕ, ϑ) : R3 → R in Kugelkoordinaten gilt1 grad f =
∂f ∂f 1 1 ∂f · er + · · eϕ + · · eϑ . ∂r r sin ϑ ∂ϕ r ∂ϑ
1
Beispiel 10.1.14 Sei f : R3 → R in kartesischen Koordinaten gegeben durch
940
f (x, y, z) = (x2 + y 2 ) · z. In kartesischen Koordinaten erh¨alt man als Darstellung des Gradienten grad f (x, y, z) = (2xz, 2yz, x2 + y 2 ) = 2xz · ex + 2yz · ey + (x2 + y 2 ) · ez . An der Stelle (x0 , y0 , z0 ) = (0, 1, 1) ist der Gradient also konkret F = 2 · 0 · 1 · ex + 2 · 1 · 1 · ey + (02 + 12 ) · ez = 2ey + ez .
(∗)
Die Darstellung in Zylinderkoordinaten ist (s. Beispiel 9.2.8.1) f (, ϕ, z) = 2 · z, so dass man den Gradienten auch in lokalen Zylinderkoordinaten berechnen und darstellen kann als grad f (, ϕ, z) = 2z · e + 2 · ez . Die Stelle (x0 , y0 , z0 ) = (0, 1, 1) entspricht in Zylinderkoordinaten = 1, ϕ = π2 und z = 1, so dass sich der Gradient an dieser Stelle ergibt als F = 2e + ez . Im lokalen Koordinatensystem an dieser Stelle ist e = ey , so dass man sieht, dass dies der gleiche Vektor wie bei (∗) ist. Die Darstellung in Kugelkoordinaten ist (s. Beispiel 9.2.13.1) 1
unter bestimmten Voraussetzungen, beispielsweise falls alle partiellen Ableitungen existieren und stetig sind
10.2 Anwendungen
233
f (r, ϕ, ϑ) = r3 sin2 ϑ cos ϑ, so dass man den Gradienten auch in lokalen Kugelkoordinaten berechnen und darstellen kann als grad f (r, ϕ, ϑ) = 3r2 sin2 ϑ cos ϑ · er +
1 3 · r · (2 sin ϑ cos2 ϑ − sin3 ϑ) · eϑ . r
(0, 1, 1) entspricht in Die Stelle (x0 , y0 , z0 ) = √ Kugelkoordinaten r = 2, ϕ = π2 und ϑ = π 4 , so dass sich der Gradient an dieser Stelle wegen sin π4 = cos π4 = √12 ergibt als F = 3 · =
√1 2 √3 2
√
3 2 2 · √12 · er + √ 3 3 3 · 2 · (2 · √12 − √12 ) · eϑ · er +
√1 2
1
er
eϕ
ey ex eϑ
· eϑ .
Betrachtet man das lokale Koordinatensystem an dieser Stelle (s. Abb. 10.2), kann man sehen, dass dies der gleiche Vektor wie bei (∗) ist.
0 F
ez
z 2
1
1 x
2
3
y
Abb. 10.2 Funktionsvektor.
10.2 Anwendungen 10.2.1 Lokale Extremstellen Im Eindimensionalen kann man Extremstellen als Nullstellen der ersten Ableitung finden. Eine lokale Extremstelle einer Funktion f : Rn → R ist auch lokale Extremstelle der partiellen Funktionen; die partiellen Ableitungen sind dort also gleich Null: 1
Satz 10.2.1 (notwendige Bedingung f¨ur eine Extremstelle) Liegt x0 im Inneren des Definitionsgebietes einer Funktion f : D → R, D ⊆ Rn , so gilt1 : x0 ist lokale Extremstelle von f ⇒ grad f (x0 ) = 0.
1 unter gewissen Voraussetzungen, beispielsweise falls die partiellen Ableitungen von f existieren und stetig sind
941
234
10 Differenzialrechnung bei mehreren Ver¨ anderlichen
Beispiel 10.2.2 Sei
f (x, y)
f (x, y) =
1 2 x + y 2 − xy − x, 2
also
10
5
0 −1
grad f (x, y) = (x − y − 1, 2y − x).
1
x 3
−1
5
0
1y
2
Abb. 10.3 Minimalstelle.
Dann gilt: grad f (x, y) = (0, 0) ⇔ x − y − 1 = 0 und ⇔ y = 1 und x = 2.
2y − x = 0
Einziger Kandidat f¨ ur eine Extremstelle ist also die Stelle (2, 1). ¨ Durch weitere Uberlegungen (s. Beispiel 10.3.16) oder am Funktionsgraf (s. Abb. 10.3) sieht man, dass (2, 1) tats¨achlich eine Minimalstelle ist.
Bemerkungen 10.2.3 zur notwendigen Bedingung f¨ur eine Extremstelle 1. Wie im Eindimensionalen gilt die Umkehrung ⇐“ bei Satz 10.2.1 im All” gemeinen nicht. Beispiel 10.2.3.1 Zu f (x, y) = x2 − y 2 ist grad f (x, y) = (2x, −2y). Also ist grad f (0, 0) = 0, obwohl (0, 0) keine Extremstelle ist.
f (x, y) 4
0 2 −4 −2
−1
0 0
x
1
1 y
−1 2 −2
Abb. 10.4 Sattelstelle.
Eine Stelle x0 mit grad f (x0 ) = 0, die keine Extremstelle ist heißt auch Sattelstelle. 2. Eine Stelle x0 mit grad f (x0 ) = 0 heißt auch station¨arer Punkt. 3. Wie im Eindimensionalen k¨onnen Extremstellen auch am Rande des Definitionsbereichs liegen, ohne dass dort der Gradient gleich Null ist. 4. Ob tats¨achlich eine Extremstelle vorliegt, wenn grad f (x0 ) = 0 ist, kann man mit Hilfe der Hesse-Matrix genauer untersuchen, s. Abschnitt 10.3.4.
10.2 Anwendungen
235
10.2.2 Jacobi-Matrix und lineare Approximation Bei einer Funktion f : Rn → Rm kann man alle Komponenten nach allen Variablen ableiten und erh¨alt damit eine Matrix: 1
Definition 10.2.4 (Jacobi-Matrix)
⎛
⎞ f1 (x) ⎜ ⎟ Zu einer Funktion f : Rn → Rm , f (x) = ⎝ ... ⎠ heißt1 fm (x) ⎛
⎜ ⎜ ⎜ f (x) := ⎜ ⎜ ⎝
⎛
⎜ = ⎝
∂ ∂x1 f1 (x)
∂ ∂x2 f1 (x)
∂ ∂x1 f2 (x)
∂ ∂x2 f2 (x)
.. . ∂ ∂x1 fm (x)
.. . ∂ ∂x2 fm (x) ⎞
...
∂ ∂xn f1 (x)
... .. . ...
∂ ∂xn f2 (x)
⎞
.. . ∂ ∂xn fm (x)
grad f1 (x) ⎟ .. ⎠ . grad fm (x)
⎟ ⎟ ⎟ ⎟ ⎟ ⎠
Jacobi-Matrix von f .
Bemerkungen 10.2.5 zur Jacobi-Matrix 1. Die Jacobi-Matrix wird auch mit Jf (x) oder ∇f (x) bezeichnet. 2. F¨ ur eine reellwertige Funktion f : Rn → R ist f (x) = grad f (x). 3. Der Aufbau der Jacobi-Matrix ist klar, wenn man den Funktionswert f (x) als Spaltenvektor und den Gradienten einer eindimensionalen (Komponenten-)Funktion als Zeilenvektor auffasst.
Beispiel 10.2.6
⎞ ⎛ 1 x+y Zu f : R2 → R3 , (x, y) → ⎝ x · y ⎠ ist f (x, y) = ⎝ y 0 y2 ⎛
⎞ 1 x ⎠. 2y
F¨ ur eine eindimensionale differenzierbare Funktion f : R → R ist f (x0 + Δx) ≈ f (x0 ) + f (x0 ) · Δx
(vgl. Bemerkung 5.1.9, 2.). Im Mehrdimensionalen gilt die gleiche formale Beziehung: 1
im Falle der Existenz
942
236
10 Differenzialrechnung bei mehreren Ver¨ anderlichen
Satz 10.2.7 (Lineare N¨aherung) F¨ ur eine Funktion f : Rn → Rm und kleine Δx gilt1 :
943
f (x0 + Δx) ≈ f (x0 ) + f (x0 ) · Δx. 1
Bemerkungen 10.2.8 zur linearen N¨aherung 1. Bei einer Funktion f : Rn → Rm ist f (x0 ) eine Matrix und f (x0 ) · Δx eine Matrix-Vektor-Multiplikation. Abb. 10.5 zeigt die entsprechenden Dimensionen. f (x0 + Δx) ≈
f (x0 ) +
1 m ∈ Rm
f (x0 ) · n
1 ≈ m
Δx 1
· n
+m
∈ Rm
∈ Rm×n
∈ Rn
Abb. 10.5 Dimensionen bei der linearen N¨ aherung.
2. Bei einer reellwertigen Funktion f : Rn → R ist speziell f = grad f , also f (x0 + Δx) ≈ f (x0 ) + grad f (x0 ) · Δx. F¨ ur die Funktions¨anderung Δf gilt damit Δf = f (x0 + Δx) − f (x0 ) ≈ grad f (x0 ) · Δx. Betrachtet man die einzelnen Komponenten, ergibt sich ⎛ ⎞ Δx1 ∂f ∂f ⎝ .. ⎠ · , ... , Δf ≈ . ∂x1 ∂xn Δxn ∂f ∂f · Δx1 + . . . + · Δxn . = ∂x1 ∂xn ¨ Diese Darstellung der Anderung von f nennt man totales Differenzial. alt man aus Satz 10.2.7 3. Setzt man x = x0 + Δx, also Δx = x − x0 , so erh¨ die Darstellung f (x) ≈ f (x0 ) + f (x0 ) · (x − x0 ). 1 unter gewissen Voraussetzungen, beispielsweise falls die partiellen Ableitungen von f existieren und stetig sind
10.2 Anwendungen
237
Beispiel 10.2.8.1
f (x, y)
Sei 944
10
f : R2 → R, f (x, y) = x2 + y 2 ,
5
also 3 0 −3
f (x, y) = (2x, 2y).
0 y 0
x
3
−3
Abb. 10.6 Tangential-Ebene.
Nahe (2, −1) ist dann
x 2 f (x, y) ≈ f (2, −1) + f (2, −1) · ( − ) y −1
x−2 = 5 + (4, −2) · y+1
= 5 + 4 · (x − 2) − 2 · (y + 1) = −5 + 4x − 2y.
Durch z = −5 + 4x − 2y wird die Tangentialebene an den Funktionsgraf an der Stelle (2, −1) beschrieben, s. Abb. 10.6.
Bemerkung 10.2.9 (Mehrdimensionales Newton-Verfahren) Bei einem Gleichungssystem mit soviel Gleichungen wie Unbekannten kann man versuchen, die L¨osung numerisch durch das (mehrdimensionale) Newton-Verfahren zu approximieren. Das Newton-Verfahren ist eigentlich ein Verfahren zur numerischen Bestimmung einer Nullstelle, aber durch entsprechende Subtraktion kann man jede einzelne Gleichung in ein Nullstellenproblem u uhren (s. Bemerkung 4.2.7) und erh¨ alt so ein Nullstellenproblem ¨berf¨ f¨ ur eine Funktion f : Rn → Rn .
Mit der linearen Approximation kann man nun ¨ ahnlich dem eindimensionalen Newton-Verfahren (s. Abschnitt 5.3.3) ausgehend von einer N¨ aherung ur eine Nullstelle zu finden. Dazu x0 ∈ Rn versuchen, bessere N¨aherungen f¨ sucht man eine Nullstelle der linearen N¨ aherung: 0 = f (x0 + Δx) ≈ f (x0 ) + f (x0 ) · Δx ⇔ f (x0 ) · Δx = −f (x0 ).
(∗)
Im Eindimensionalen kann man durch die Zahl f (x0 ) teilen. Hier ist f (x0 ) die Jacobi-Matrix zu f , und (∗) entspricht einem linearen Gleichungssystem f¨ ur Δx. Hat man dieses gel¨ost, erh¨alt man als neue N¨ aherung x1 = x0 +Δx. Nutzt man die inverse Matrix zur Jacobi-Matrix, kann man Δx = −(f (x0 ))−1 f (x0 )
945
238
10 Differenzialrechnung bei mehreren Ver¨ anderlichen
schreiben und erh¨alt ganz in Analogie zum Eindimensionalen x1 = x0 − (f (x0 ))−1 f (x0 ). Dies kann man nun iterieren: xn+1 = xn − (f (xn ))−1 f (xn ). In der Praxis nutzt man u osung ei¨blicherweise die Berechnung mittels L¨ nes linearen Gleichungssystems entsprechend (∗) statt der Berechnung der Inversen, da letzteres rechenaufw¨andiger ist. Oft nutzt man als Schreibweise auch x(n) statt xn . Beispiel 10.2.9.1 Gesucht ist eine L¨osung des Gleichungssystems x1 2 + x2 3 = 4, ln(x1 ) + ln(x2 ) = 0.5, also eine Nullstelle der Funktion
x1 2 + x2 3 − 4 f (x1 , x2 ) = ln(x1 ) + ln(x2 ) − 0.5 mit
f (x1 , x2 ) =
2x1 1/x1
3x2 2 1/x2
Als Startn¨aherung wird x(0) =
.
1 1
genommen.
Eine neue N¨aherung erh¨alt man durch x(1) = x(0) +Δx, wobei Δx durch f (x(0) ) · Δx = −f (x(0) )
1 bestimmt wird, hier konkret Δx = Δx Δx2 und f (1, 1) · Δx = −f (1, 1), also
−2 2 2 3 Δx1 = − = . · −0.5 0.5 Δx2 1 1 Durch Aufl¨osen des Gleichungssystems oder mit Satz 8.5.12 erh¨ alt man
−0.5 Δx1 = , Δx = 1 Δx2 also x
(1)
= x
(0)
1 −0.5 0.5 + Δx = + = . 1 1 2
10.3 Weiterf¨ uhrende Themen
239
10.3 Weiterfu ¨ hrende Themen 10.3.1 Kurven Eine Funktion f : R → Rn mit eindimensionalem Definitionsbereich kann man sich als bewegten Punkt vorstellen, der zur Zeit t an der Stelle f (t) ∈ Rn ist. Statt des Funktionsgrafen liegt dann die Vorstellung als Kurve im Zielbereich Rn nahe, die dieser Punkt durchl¨auft. Man nennt die Funktion f dann auch eine Parameterdarstellung der Kurve.
Beispiele 10.3.1 1. Die Funktion f : R → R2 mit
2 2 2 + 2t f (t) = +t· = 2 −1 2−t entspricht der Parameterdarstellung einer Geraden (s. Abb. 10.7, vgl. Beispiel 7.5.3). t 2. Ein Punkt, der zur Zeit t an der Stelle cos sin t ist, durchl¨auft einen Kreis. Die Bahnkurve zu
cos t 2 f : R → R , f (t) = sin t
x2
1 x1 1 Abb. 10.7 Gerade im R2 .
1
x2
sin t 1
t
cos t x1
ist also ein Kreis, s. Abb. 10.8. Abb. 10.8 Kreis.
3. Einen Funktionsgraf zu einer Funktion g : R → R kann man sich als Kurve zur Funktion
t 2 f : R → R , f (t) = g(t) vorstellen. In Abb. 10.9 ist die Kurve zu f (t) = zu g(t) = t2 dargestellt.
t t2
t
, also
4. Die Funktion f : R → R3 ,
g(t)
Abb. 10.9 Funktionsgraf als Kurve. t
⎛
⎞
cos t f (t) = ⎝ sin t ⎠ t
beschreibt eine sich nach oben windende Spirallinie im dreidimensionalen Raum, s. Abb. 10.10.
sin t
cos t Abb. 10.10 Spirale.
946
240
10 Differenzialrechnung bei mehreren Ver¨ anderlichen
Bemerkung 10.3.2 (lineare N¨aherung bei Kurven) 947
Die lineare N¨aherung (Satz 10.2.7) stellt sich bei einer Funktion f : R → Rn dar als f (t0 + h) ≈ f (t0 ) + f (t0 ) · h
(h klein).
(∗)
oße; die JacobiDabei sind f (t0 + h) und f (t0 ) Vektoren und h eine reelle Gr¨ f1 (t0 ) .. , ist also auch ein Matrix f (t0 ) besitzt hier die Form f (t0 ) = .
Vektor.
fn (t0 )
Die Approximation (∗) beschreibt also eine Gerade im Rn in vektorieller Form (vgl. Definition 7.5.1) mit Ortsvektor f (t0 ) und Richtungsvektor f (t0 ). Diese Gerade ist die Tangente an die Kurve. Der Richtungsvektor f (t0 ) entspricht der momentanen Bewegungsrichtung bei der Vorstellung eines sich bewegenden Punktes. Beispiele 10.3.2.1 t 1. Zu der Funktion f : R → R2 , f (t) = cos sin t , die einen Kreis darstellt (s. Beispiel 10.3.1, 2.), ergibt sich
− sin t0 cos t0 + · h. f (t0 + h) ≈ sin t0 cos t0 Die rechte Seite stellt die Tangente dar. Konkret f¨ ur t0 = π4 ergibt sich beispielsweise als Tangente (s. Abb. 10.11)
√ √ 1/ 2 −1/ 2 + · h. g(h) = √ √ 1/ 2 1/ 2 2. Betrachtet man wie bei Beispiel 10.3.1, 3., zu einer Funktion g : R → R den Funktionsgrafals Kurve in der Form f : R → R2 , t f (t) = g(t) , so ergibt sich die Tangente in vektorieller Form:
1 t0 f (t0 + h) ≈ + · h. g(t0 ) g (t0 ) z.B. konkret f¨ ur g(t) = t2 :
1 t0 + · h. f (t0 + h) ≈ 2t0 t0 2
1
t0 1
Abb. 10.11 Tangente am Kreis.
g(t)
g (t0 ) g(t0 )
1 t0
t
Abb. 10.12 Tangente an eine Kurve.
10.3 Weiterf¨ uhrende Themen
241
10.3.2 Kettenregel Im Eindimensionalen gilt die Kettenregel (s. Satz 5.2.5) (g ◦ f ) (x0 ) = g (f (x0 )) · f (x0 ). Zwei Funktionen f : Rn → Rm , g : Rm → Rk kann man verketten zu f ◦ g : Rn → Rk . Hier gilt genauso:
Satz 10.3.3 (mehrdimensionale Kettenregel) F¨ ur Funktionen f : Rn → Rm und g : Rm → Rk gilt1 (g ◦ f ) (x) = g f (x) · f (x). (Kettenregel) 1
Bemerkung 10.3.4 zur mehrdimensionalen Kettenregel Die Ableitungen sind nun Matrizen und ·“ bedeutet eine Matrix-Matrix” Multiplikation. Abb. 10.13 zeigt die Dimensionen der Matrizen. · f (x) g f (x) (g ◦ f ) (x) = n m n = k
k
·
m
Abb. 10.13 Matrix-Dimensionen bei der Kettenregel.
Beispiele 10.3.5 1. Seien f : R2 → R4 und g : R4 → R3 gegeben durch ⎛ ⎞ ⎞ ⎛ 1 x1 + x 3 ⎜ x ⎟ ⎟ ⎝ x2 · x 4 ⎠ . f (x, y) = ⎜ ⎝ x ⎠ und g(x1 , x2 , x3 , x4 ) = sin(x4 ) xy Dann ist
⎛
0 ⎜1 f (x, y) = ⎜ ⎝1 y
also 1
⎞ 0 0⎟ ⎟ 0⎠ x
und
⎞ 1 0 1 0 x2 ⎠ , g (x1 , x2 , x3 , x4 ) = ⎝ 0 x4 0 0 0 0 cos(x4 ) ⎛
beispielsweise falls alle partiellen Ableitungen existieren und stetig sind
948
242
10 Differenzialrechnung bei mehreren Ver¨ anderlichen ⎛
⎞ 1 0 1 0 x ⎠, g (f (x, y)) = g (1, x, x, xy) = ⎝ 0 xy 0 0 0 0 cos(xy)
und mit der Kettenregel (g ◦ f ) (x, y) = ⎛ ⎛ ⎞ 0 1 0 1 0 ⎜1 x ⎠·⎜ (g◦f ) (x, y) = ⎝ 0 xy 0 ⎝1 0 0 0 cos(xy) y
g (f (x, y)) · f (x, y) ergibt sich ⎞ ⎞ ⎛ 0 1 0 ⎟ 0⎟ ⎠, x2 = ⎝ 2xy 0⎠ cos(xy)y cos(xy)x x
was mit der direkten Berechnung der Jacobi-Matrix aus ⎛
⎞ 1+x (g ◦ f )(x, y) = g(f (x, y)) = g(1, x, x, xy) = ⎝ x2 y ⎠ sin(xy)
u ¨bereinstimmt.
949
2. Will man die eindimensionale Funktion h : R → R, h(x) = xx , ableiten, so kann man das weder direkt mit Hilfe der Regeln f¨ ur eine Potenzfunktion (da die Potenz hier nicht fest ist), noch mit Hilfe der Regeln f¨ ur eine Exponen¨ tialfunktion (da die Basis hier nicht fest ist). Uber eine zweidimensionale Hilfkonstruktion kann man diese Regeln aber nutzen und zusammenf¨ uhren: Sei dazu
x und g : (R>0 )2 → R>0 , (x, y) → xy . f : R>0 → (R>0 )2 , x → x Dann ist h(x) = g(x, x) = g ◦ f (x), und mit den Jacobi-Matrizen
1 und g (x, y) = (y · xy−1 , ln x · xy ). f (x) = 1 ergibt sich h (x) = (g ◦ f ) (x) = g f (x) · f (x)
1 x−1 x , ln x · x ) · = (x · x 1
= xx · 1 + ln x · xx · 1 = xx (1 + ln x). x
asst sich die AbleiBemerkung: In der Darstellung h(x) = eln(x ) = ex·ln x l¨ tung auch rein mit den eindimensionalen Regeln aus Kapitel 5 bestimmen.
10.3 Weiterf¨ uhrende Themen
243
10.3.3 Richtungsableitung Bei einer Funktion f : R2 → R stellen die ∂f partiellen Ableitungen ∂f ∂x (p) bzw. ∂y (p) in 2 einem Punkt p = (x, y) ∈ R die Steigungen in x- bzw. y- Richtung im Punkt p dar. Man kann vom Punkt p auch in andere Richtungen gehen und entsprechende Richtungsableitungen betrachten, s. Abb. 10.14.
f (x, y) 3
950
2 1 0 0
1
2x
3
4 0
1
2 y
3
4
Abb. 10.14 Richtungsableitung.
951
Satz 10.3.6 (Richtungsableitung) Die Richtungsabteilung einer Funktion f : Rn → R im Punkt p ∈ Rn in Richtung v ∈ Rn , ||v|| = 1, ist ∂ f (p) = grad f (p) · v. ∂v
Bemerkungen 10.3.7 zur Richtungsableitung 1. Die Formel f¨ ur die Richtungsableitung kann man aus der Kettenregel (Satz 10.3.3) ableiten: Die Gerade g(t) = p + t · v beschreibt eine Bewegung im Definitionsgebiet ausgehend von p in die Richtung v. Damit ist f ◦ g(t) das Verhalten der Funktion in dieser Richtung. Als Ableitung im Punkt p, also f¨ ur t = 0, erh¨alt man (f ◦ g) (t) |t=0
Ketten-
= regel
=
f (g(t)) · g (t) |t=0 grad f (g(0)) · v = grad f (p) · v.
F¨ ur unterschiedliche L¨angen von v erhielte man unterschiedliche Werte. F¨ ur einen eindeutigen Wert fordert man die Normierung ||v|| = 1, was man als Geschwindigkeit gleich 1 interpretieren kann. amtliche 2. Satz 10.3.6 besagt insbesondere, dass die partiellen Ableitungen s¨ Richtungsableitungen festlegen. Man erh¨alt die partiellen Ableitungen wieder als spezielle Richtungsablei1 2 tungen uck, z.B. im R mit den Richtungsvektoren vx = 0 bzw. 0 zur¨ vy = 1 :
∂f ∂ ∂f ∂f 1 , · = f = grad f · vx = 0 ∂vx ∂x ∂y ∂x und
952
244
10 Differenzialrechnung bei mehreren Ver¨ anderlichen ∂ f = grad f · vy = ∂vy
∂f ∂f , ∂x ∂y
∂f 0 · = . 1 ∂y
3. Ein Skalarprodukt a · b wird betragsm¨aßig am gr¨ oßten, wenn a und b in die gleiche Richtung zeigen (s. Bemerkung 7.3.17, 4.). Die Richtungsableitung grad f (x0 ) · v wird also am gr¨oßten, wenn man in Richtung von grad f (x0 ) geht, vgl. Satz 10.1.8. Ein Richtungsvektor der L¨ ange 1 in diese Richtung ist v =
1 · grad f (x0 ). grad f (x0 )
Die maximale Richtungsableitung ist dann 1 ∂ f (x0 ) = grad f (x0 ) · · grad f (x0 ) ∂v grad f (x0 ) 1 · (grad f (x0 ) · grad f (x0 )) = grad f (x0 ) 1 · grad f (x0 )2 = grad f (x0 ) = grad f (x0 ). 4. Ist die Richtung v senkrecht zu grad f , so ist das Skalarprodukt gleich Null, d.h., senkrecht zum Gradienten ist die Richtungsableitung gleich 0, vgl. Satz 10.1.8.
10.3.4 Hesse-Matrix Definition 10.3.8 (Hesse-Matrix) 1 Zu einer Funktion f : Rn → R heißt1
953
⎛
⎜ ⎜ ⎜ Hf (x) := ⎜ ⎜ ⎝
∂2 ∂x1 ∂x1 f (x)
∂2 ∂x1 ∂x2 f (x)
∂2 ∂x2 ∂x1 f (x)
∂2 ∂x2 ∂x2 f (x)
...
... .. .. .. . . . 2 2 ∂ ∂ ∂xn ∂x1 f (x) ∂xn ∂x2 f (x) . . .
Hesse-Matrix von f .
1
falls alle partiellen Ableitungen zweiter Ordnung existieren
∂2 ∂x1 ∂xn f (x) ∂2 ∂x2 ∂xn f (x)
.. .
∂2 ∂xn ∂xn f (x)
⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠
10.3 Weiterf¨ uhrende Themen
245
Bemerkungen 10.3.9 zur Hesse-Matrix 1. Die Hesse-Matrix ist die verallgemeinerte zweite Ableitung. 2. Nach dem Satz von Schwarz (Satz 10.1.4) ist die Hesse-Matrix eine symmetrische Matrix.1 3. Bei einer Funktion f : Rn → R ist der Gradient grad f eine Funktion ∂ f, Rn → Rn . Leitet man die einzelnen Komponenten von grad f , also ∂x i nach den einzelnen Variablen ab, erh¨alt man die Spalten der Hesse-Matrix, die (wie in 2. erw¨ahnt) gleich den Zeilen der Hesse-Matrix sind.1 Die HesseMatrix ist also die Jacobi-Matrix des Gradienten. 1
Beispiel 10.3.10 Zu der Funktion f : R2 → R, f (x, y) = (x + 1) · ey sind die ersten Ableitungen grad f (x, y) = ( also Hf (x, y) =
∂ ∂ f, f ) = ( ey , (x + 1) ey ), ∂x ∂y
0 ey ey (x + 1) ey
.
In Verallgemeinerung der eindimensionalen quadratischen Taylor-N¨ aherung f (x0 + Δx) ≈ f (x0 ) + f (x0 ) · Δx + 12 f (x0 ) · (Δx)2 (s. Definition 5.3.19) gilt:
Satz 10.3.11 (Quadratische (Taylor-) N¨aherung) F¨ ur eine Funktion f : Rn → R und kleine Δx ist2
954
f (x0 + Δx) ≈ f (x0 ) + grad f (x0 ) · Δx + 21 · (Δx)T · Hf (x0 ) · Δx. 955 2
Bemerkung 10.3.12 zur quadratischen N¨aherung Der quadratische Anteil 21 f (x0 ) · (Δx)2 im Eindimensionalen wird also zur quadratischen Form 12 · (Δx)T · Hf (x0 ) · Δx, vgl. Bemerkung 8.7.3. 1
bei entsprechenden Voraussetzungen unter gewissen Voraussetzungen, beispielsweise falls die partiellen Ableitungen zweiter Ordnung von f existieren und stetig sind 2
246
10 Differenzialrechnung bei mehreren Ver¨ anderlichen
Beispiel 10.3.13 (Fortsetzung von Beispiel 10.3.10) Zu f (x, y) = (x + 1) · ey ist f¨ ur kleine x, y
0 x f( + ) 0 y
T
1 x 0 x 0 0 x · · Hf ≈f + grad f · + · y 0 y 0 0 y 2
1 0 1 x x · (x, y) · · = 1 + (1, 1) · + 1 1 y y 2 1 · (2xy + y 2 ) = 1 + x+y + 2 = 1 + x + y + xy + 21 y 2 .
Satz 10.3.14 (hinreichende Bedingung f¨ur eine Extremstelle) Die Stelle x0 ∈ Rn sei station¨arer Punkt zur Funktion f : Rn → R, also grad f (x0 ) = 0. Dann gilt1,2 :
956
1. Hf (x0 ) ist
positiv definit Minimum ⇒ f hat in x0 ein lokales . negativ definit Maximum
2. Hf (x0 ) ist indefinit ⇒ x0 ist keine Extremstelle. 1 2
Bemerkungen 10.3.15 zur hinreichenden Bedingung f¨ur eine Extremstelle 1. Im Hinblick darauf, dass die Definitheit einer Matrix die Verallgemeinerung des Vorzeichens einer reellen Zahl ist (s. Bemerkung 8.7.6, 1.), ist Satz 10.3.14, 1., die Verallgemeinerung zu Satz 5.3.7, 1. 2. Bei einer semidefiniten Hesse-Matrix ist allein mit Hf (x0 ) keine Aussage m¨oglich, ob die betrachtete Stelle Extermstelle ist oder nicht. 3. Satz 10.3.14 ist mit der quadratischen Approximation (Satz 10.3.11) erkl¨arbar: Hat die Funktion f : Rn → R in x0 eine Extremstelle, so ist grad f (x0 ) = 0 (s. Satz 10.2.1). F¨ ur kleine Abweichungen Δx gilt also mit der quadratischen Approximation f (x0 + Δx) ≈ f (x0 ) + grad f (x0 ) · Δx + = f (x0 ) +
1
1 2
1 2
· (Δx)T · Hf (x0 ) · Δx
· (Δx)T · Hf (x0 ) · Δx.
(∗)
unter gewissen Voraussetzungen, beispielsweise falls f zweimal differenzierbar mit stetigen zweiten Ableitungen ist 2 zur Definitheit von Matrizen s. Abschnitt 8.7
10.3 Weiterf¨ uhrende Themen
247
Es ist plausibel, dass x0 eine Minimalstelle ist, wenn die quadratische Form ur Abweichungen Δx = 0 immer positiv ist. Dies ist (Δx)T · Hf (x0 ) · Δx f¨ gleichbedeutend damit, dass die Hesse-Matrix Hf positiv definit ist. Ist die Hesse-Matrix Hf indefinit, so gibt es Δx1 und Δx2 mit (Δx1 )T Hf Δx1 > 0
und
(Δx2 )T Hf Δx2 < 0.
aherung (∗) also In der N¨ahe der Stelle x0 erh¨alt man entsprechend der N¨ gr¨oßere und kleinere Funktionswerte , d.h., x0 ist garantiert keine Extremstelle.
Beispiel 10.3.16 (vgl. Beispiel 10.2.2) Die Funktion f : R2 → R, f (x, y) =
1 2 2x
+ y 2 − xy − x
mit
f (x, y) 10
5
grad f (x, y) = (x − y − 1, 2y − x), hat an der Stelle (x, y) = (2, 1) einen station¨aren Punkt: grad f (2, 1) = (0, 0). Da
1 −1 Hf (x, y) = −1 2
0 −1
1
x 3
−1
5
0
1y
2
Abb. 10.15 Minimalstelle.
f¨ ur jede Stelle (x, y) positiv definit ist (s. Beispiel 8.7.10, 2.), ist (2, 1) eine Minimalstelle, s. Abb. 10.15.
Bemerkung 10.3.17 Es reicht nicht aus, dass an einer Stelle alle partiellen Funktionen Minimalbzw. Maximalstellen haben, um daraus schließen zu k¨ onnen, dass die gesamte Funktion dort eine Extremstelle hat. Beispiel 10.3.17.1 Die Funktion f : R2 → R, f (x, y) = x2 + y 2 + 4xy,
4
0
mit
2
grad f (x, y) = (2x + 4y, 2y + 4x) hat an der Stelle (x, y) = (0, 0) einen station¨aren Punkt.
-4 -2
1 0 -1
0
1
-1 2
-2
Abb. 10.16 Sattelstelle.
Die partiellen Funktionen in x- und in y-Richtung stellen nach oben ge¨offnete Parabeln dar, bei denen (0, 0) jeweils eine Minimalstelle ist.
248
10 Differenzialrechnung bei mehreren Ver¨ anderlichen Die Stelle ist f¨ ur f aber eine Sattelstelle: Die Hesse-Matrix ist
2 4 ; Hf (x, y) = 4 2 sie ist indefinit, da z.B.
2 4 1 2 (1 0) · · = (1 0) · = 2 > 0 4 2 0 4
2 4 1 −2 und (1 − 1) · · = (1 − 1) · = −4 < 0 4 2 −1 2 ist. Der station¨are Punkt (0, 0) ist nach Satz 10.3.14 also keine Extremstelle sondern eine Sattelstelle, s. Abb. 10.16.
11
Integration bei mehreren Ver¨ anderlichen
Dieses Kapitel behandelt die Integration reellwertiger Funktionen in mehreren Ver¨anderlichen. Diese kann auf eindimensionale Integrale zur¨ uckgef¨ uhrt werden. Bei den h¨aufig vorkommenden Integrationen in der Ebene und im Raum sind die im Kapitel 9 eingef¨ uhrten Polar-, Zylinder- und Kugelkoordinaten wichtig.
11.1 Satz von Fubini Einfu ¨ hrung 11.1.1 Zu einer Funktion f : [a, b] → R berechnet das Integral $b
f (x)
f (x) dx
a
die Fl¨ache unter der Kurve x → f (x).
970
a
b x
971
Abb. 11.1 Fl¨ ache unter einer Kurve.
Bei einer mehrdimensionalen Funktion f : D → R, D ⊆ R2 , z.B. f : [0, 2] × [0, 1] → R, f (x, y) = x + y, kann man sich das Integral als Volumen unter der Fl¨ ache, die von f beschrieben wird, vorstellen. Bei einer Funktion f : D → R, D ⊆ Rn kann man das Integral $ f (x1 , . . . , xn ) d(x1 , . . . , xn ) D
wie im Eindimensionalen definieren: © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 G. Hoever, Höhere Mathematik kompakt, https://doi.org/10.1007/978-3-662-62080-9_11
249
250
11 Integration bei mehreren Ver¨ anderlichen
Man zerlegt den Definitionsbereich D in kleine Teile D1 , . . . , Dn , z.B. Quadrate, sucht sich Stellen xi ∈ Di und bildet die Zwischensumme n i=1
z y
f (xi ) · (Fl¨ache von Di ),
x Abb. 11.2 Volumen unter einer Fl¨ ache.
s. Abb. 11.2. Falls diese Summen f¨ ur immer feinere Zerlegungen gegen einen Wert konvergieren, heißt die Funktion f integrierbar und der Grenzwert wird mit # f (x) dx bezeichnet. D
Satz 11.1.2 (Satz von Fubini) F¨ ur D = [ax , bx ] × [ay , by ] ⊆ R2 und eine Funktion f : D → R gilt1 : ⎞ ⎛ $ $bx $by ⎟ ⎜ f (x, y) d(x, y) = f (x, y) dy ⎠ dx ⎝
972
973
x=ax
D
=
$by
y=ay
y=ay
⎛ ⎝
$bx
x=ax
⎞
f (x, y) dx⎠ dy.
Entsprechendes gilt in h¨oheren Dimensionen. 1
Bemerkungen 11.1.3 zum Satz von Fubini 1. Mit dem Satz von Fubini l¨asst sich die mehrdimensionale Integration auf eine mehrfache eindimensionale Integration zur¨ uckf¨ uhren. 2. Anschaulich beschreibt der Satz von Fubini, dass man das mehrdimensionale Integral als (¨außeres) Integral u ¨ber Schnittfl¨achen (die inneren Integrale) erh¨alt. Dabei ist es unerheblich, ob man zun¨achst in y-Richtung schneidet und die Schnittfl¨achen dann in x-Richtung aufsammelt (wie in Abb. 11.3), oder ob man umgekehrt in x Richtung schneidet und die Fl¨achen in y-Richtung aufsammelt.
1
z y
x Abb. 11.3 Volumen als Integration von Schnitten.
unter gewissen Voraussetzungen, beispielsweise wenn f stetig ist
11.1 Satz von Fubini
251
Beispiel 11.1.4 Sei D = [0, 2] × [0, 1] und f : D → R, f (x, y) = x + y. Dann gilt ⎛ 1 ⎞ $ $ $2 ⎝ (x + y) dy ⎠ dx f (x, y) d(x, y) = y=0
x=0
D
=
$2
x=0
974
xy +
1 2 2y
1
y=0
dx =
$2
(x + 12 ) dx
x=0
2 = 21 x2 + 21 x = 2 + 1 − 0 = 3. 0
Die umgekehrte Integrationsreihenfolge bringt das gleiche Ergebnis: ⎛ 2 ⎞ $ $ $1 ⎝ (x + y) dx⎠ dy f (x, y) d(x, y) = x=0
y=0
D
=
$1
y=0
$1 2 1 2 x + y · x dy = (2 + 2y) dy 2 x=0
1 = 2y + y 2 = 2 + 1 = 3.
y=0
0
Bemerkung 11.1.5 (S¨atze von Fubini und Schwarz) Die Integration ist die Umkehrung der Differenziation. Damit besteht ein Zusammenhang zwischen dem Satz von Fubini und dem Satz von Schwarz (Satz 10.1.4): Der Satz von Fubini besagt, dass bei der Integration mit mehreren Variablen die Reihenfolge vertauschbar ist. Der Satz von Schwarz dr¨ uckt den R¨ uckweg aus: Die Reihenfolge bei partiellen Ableitungen ist vertauschbar.
Bemerkung 11.1.6 Speziell bei Funktionen f : D → R, D ⊂ R2 beschreibt der Satz von Fubini anschaulich, dass man das Volumen des Funktionsgebirges durch die Integration von Schnitten in x- oder in y-Richtung erh¨ alt. Mit der gleichen Idee kann man das Volumen dreidimensionaler K¨ orper durch Integration von Schnittfl¨achen bestimmen:
Satz 11.1.7 (Volumenberechnung) Hat ein K¨ orper eine Querschnittfl¨ache A(z) in H¨ ohe z, z0 ≤ z ≤ z1 , #z1 so besitzt er das Volumen V = A(z) dz. z0
975
252
11 Integration bei mehreren Ver¨ anderlichen
Beispiel 11.1.8 Gesucht ist das Volumen V einer Pyramide mit quadratischer Grundfl¨ ache, Seitenl¨ange 2 und H¨ohe 2, s. Abb. 11.4. Ein Schnitt in H¨ohe z ergibt ein Quadrat mit Seitenl¨ange 2−z , also mit der Fl¨ache A(z) = (2 − z)2 . Damit ist: V =
$2
z 2
(2 − z)2 dz
y
0
2 1 = − (2 − z)3 3 0 8 8 = 0 − (− ) = . 3 3
−1
1
x
Abb. 11.4 Volumenbestimmung durch Integration von Schnitt߬ achen.
11.2 Integration in anderen Koordinatensystemen In Abschnitt 11.1 wurde die mehrdimensionale Integration durch Schnitte parallel zu den Koordinatenachsen durchgef¨ uhrt. Als entsprechende Grundfl¨ achen hat man dann beispielsweise bei einer Funktion f : D → R mit D ⊂ R2 kleine Quadrate mit Fl¨acheninhalt Δx · Δy , s. Abb. 11.5, links. Diese werden bei der immer feiner werdenden Zerlegung zu dx dy“. ” Bei Funktionen, die in Polar-, Zylinder- oder Kugelkoordinaten angegeben sind, bieten sich andere Unterteilungen an, s. Abb. 11.5, rechts. Dabei f¨ uhren die ge¨anderten Grundfl¨achen zu anderen Berechnungsformeln.
f(x, y)
f(x, y)
y x
y x
Abb. 11.5 Unterteilung der Integrationsgebiete bei kartesischen Koordinaten und bei Polarkoordinaten.
11.2 Integration in anderen Koordinatensystemen
253
Satz 11.2.1 (Integration in Polarkoordinaten) Sei KR der Kreis in R2 um den Ursprung mit Radius R.
976
F¨ ur eine integrierbare Funktion f : KR → R in Polarkoordinaten dargestellt, f = f (r, ϕ), gilt: $
f (x, y) d(x, y) =
$R $2π
r=0 ϕ=0
KR
f (r, ϕ) · r dϕ dr.
Bemerkung 11.2.2 zur Integration in Polarkoordinaten Δϕ
Satz 11.2.1 wird verst¨andlich, wenn man die Zerlegung des Definitionskreises in kleine Ringteilfl¨achen wie in Abb. 11.6 betrachtet:
Δr y r · Δϕ r
Der Fl¨acheninhalt dieser Ringteilfl¨achen ist ungef¨ahr ΔA = r · Δϕ · Δr.
x
Abb. 11.6 Ringteilf¨ achen.
Dies f¨ uhrt zu r dϕ dr“, also dem zus¨atzli” chen Faktor r im Integranden.
Beispiele 11.2.3 1. Die Funktion f : R2 → R, in Polarkoordinaten dargestellt durch f (r, ϕ) = r · sin2 ϕ, soll u ¨ber einen Kreis mit Radius 2 integriert werden: $ f (x, y) d(x, y) f(x, y) 2
K2
=
$2
$2π
r=0 ϕ=0
=
$2
r=0
r · sin2 ϕ · r dϕ dr ⎛
r2 · ⎝
$2π
ϕ=0
⎞
sin2 ϕ dϕ⎠ dr
8 1 3 2 1 · 2π = π. = r · 3 0 2 3
1 0 −2 −1 x 0
1 2 −2
−1
0 y
1
2
Abb. 11.7 f (r, ϕ) = r · sin2 ϕ.
254
11 Integration bei mehreren Ver¨ anderlichen
2. Die nur vom Abstand r zum Ursprung abh¨ angige Funktion f : R2 → R, f (r) = r soll u ¨ber einen Kreis mit Radius 2 integriert werden: ⎛ 2π ⎞ $2 $2π $2 $ $ f (x, y) d(x, y) = r · r dϕ dr = r2 · ⎝ 1 dϕ⎠ dr r=0 ϕ=0
K2
=
$2
r=0
r=0
ϕ=0
1 2 16 π. r2 · 2π dr = 2π · r3 = 3 0 3
Satz 11.2.4 977
Sei KR der Kreis in R2 um den Ursprung mit Radius R. F¨ ur eine integrierbare Funktion f : KR → R, die nur vom Abstand r zum Ursprung abh¨angt, f = f (r), gilt: $
f (x, y) d(x, y) =
KR
$R
r=0
f (r) · 2πr dr.
Bemerkungen 11.2.5 zu Satz 11.2.4 1. H¨angt die Funktion f nur vom Abstand r zum Ursprung ab, also f = f (r), so ist der Integrand nicht mehr von ϕ abh¨ angig, und die ϕ-Integration bei der Berechnung gem¨aß Satz 11.2.1 als $R $2π
r=0 ϕ=0
f (r, ϕ) · r dϕ dr =
$R $2π
r=0 ϕ=0
f (r) · r dϕ dr
liefert wie bei Beispiel 11.2.3, 2., den konstanten Faktor 2π. 2. Den Ausdruck 2πr dr beim rechten Integral in Satz 11.2.4 kann man sich als Fl¨ache eines dr-breiten Integrationsrings im Definitionsbereich vorstellen. Die Formel bedeutet dann, dass das Volumen in Ringe zerlegt wird, die eine Grundfl¨ ache 2πr dr und eine H¨ohe f (r), also ein Volumen f (r) · 2πr dr haben.
y
2πr dr r x
Abb. 11.8 Integrationsring.
Bemerkung 11.2.6 (Vorstellung der Integration im Raum) 978
Die Integration einer zweidimensionalen Funktion f : D → R, D ⊆ R2 , kann man sich vorstellen als Bestimmung des Volumens unter dem Funk-
11.2 Integration in anderen Koordinatensystemen
255
tionsgebirge. Alternativ kann man sich vorstellen, dass das gesamte Definitionsgebiet D mit den entsprechenden Funktionswerten gepflastert“ ist. ” Die Integration zerlegt den Definitionsbereich in kleine Teilfl¨ achen und gewichtet diese mit dem entsprechenden Wert. Die Summe bei immer feiner werdender Zerlegung ist das Integral.
Abb. 11.9 Funktionsgebirge und Pflasterung“ mit Funktionswerten. ”
Die zweite Vorstellung kann man auf dreidimensionale Funktionen f : D → R, D ⊆ R3 , u ¨bertragen: Der gesamte Raum bzw. das Definitionsgebiet ist mit Werten gef¨ ullt. Die Integration zerlegt den Definitionsbereich in kleine Volumenelemente und gewichtet diese mit dem entsprechenden Wert. Die Summe bei immer feiner werdender Zerlegung ist das Integral. In kartesischen Koordinaten betrachtet man sinnvollerweise als Volumenelemente kleine Quader entsprechend der x-, y- und z-Richtung, die das Volumen ΔV = Δx · Δy · Δz besitzen. Dies f¨ uhrt auf die u ¨bliche Integration mit dx dy dz. Wie schon bei der Integration in Polarkoordinaten teilt man bei einer in Zylinder- oder Kugelkoordinaten gegebenen Funktion den Definitionsbereich sinnvollerweise anders auf, um eine entsprechend der Darstellung passende Integration zu erhalten. Bei der Integration in Zylinderkoordinaten betrachtet man beispielsweise kleine Volumenelemente entsprechend Abb. 11.10. 979
(x, y, z)
z
Δ
· Δϕ Δϕ
y
ϕ
x
Abb. 11.10 Zylinderkoordinaten und entsprechendes Volumenelement.
F¨ ur das Volumenelement gilt dann ΔV = · Δϕ · Δ · Δz. Dies f¨ uhrt zu einem zus¨atzlichen Faktor im Integranden:
Δz
256
11 Integration bei mehreren Ver¨ anderlichen
Satz 11.2.7 (Integration in Zylinderkoordinaten) F¨ ur eine integrierbare Funktion f : R3 → R in Zylinderkoordinaten dargestellt, f = f (, ϕ, z), gilt1 : $ $ $ $ f (x, y, z) d(x, y, z) = f (, ϕ, z) · dϕ d dz. z
D
ϕ
1
Bespiel 11.2.8 Gesucht ist die Durchschnittstemperatur T in einem Topf mit Radius 1 und H¨ohe 2 (s. Abb. 11.11) und einer Temperaturverteilung f (, ϕ, z) = 100 − 10z − 10. Durch das Integral von f erh¨alt man die Summe der einzelnen Temperaturwerte multipliziert mit entsprechenden Volumenelementen. Teilt man diesen Wert durch das gesamte Volumen, erh¨alt man den Durschnittswert: $ 1 · f (x, y, z) d(x, y, z) T = z V Topf
=
1 π · 12 · 2 $2
1 = 2π
$2 $1 $2π
=
z=0 =0
y
f (, ϕ, z) dϕ d dz
z=0 =0 ϕ=0
$1
z=0 =0
$2 $1
2
(100 − 10z − 10) · 2π · d dz
−1
1
x
Abb. 11.11 Topf.
((100 − 10z) − 102 ) d dz
$2 10 1 1 dz = (100 − 10z)2 − 3 2 3 =0 z=0
=
$2
z=0
=
1
(50 − 5z) −
10 dz 3
5 2 250 280 z − z2 = − 10 = = 83.¯ 3. 3 2 3 3 0
140
bei dem Integrationsbereich D ⊂ R3 entsprechenden Integrationsgrenzen f¨ ur z, und ϕ
11.2 Integration in anderen Koordinatensystemen
257
1
Satz 11.2.9 (Integration in Kugelkoordinaten) F¨ ur eine integrierbare Funktion f : R3 → R in Kugelkoordinaten dargestellt, f = f (r, ϕ, ϑ), gilt1 : $ $ $ $ f (x, y, z) d(x, y, z) = f (r, ϕ, ϑ) · r2 sin ϑ dϑ dϕ dr. r
D
ϕ ϑ
Bemerkung 11.2.10 zur Integration in Kugelkoordinaten Bei Kugelkoordinaten ist das Volumenelement entsprechend Abb. 11.12 ΔV = (r · Δϑ) · (Δr) · (r sin ϑ · Δϕ) = r2 sin ϑ · ΔrΔϕΔϑ. Dies f¨ uhrt auf den zus¨atzlichen Faktor r2 sin ϑ. (x, y, z)
z
z
r sin ϑ
r sin ϑ · Δϕ
Δr
r · Δϑ r y
ϑ
Δϑ ϑ
r sin ϑ ϕ x
Δϕ
r sin ϑ
Abb. 11.12 Kugelkoordinaten und entsprechendes Volumenelement.
Beispiele 11.2.11 1. Die Integration von f (x, y, z) = z u ¨ber die Kugel K1 mit Radius 1 um den Ursprung ergibt wegen der Darstellung in Kugelkoordinaten als f (r, ϕ, ϑ) = r cos ϑ $
f (x, y, z) d(x, y, z) =
$1 $2π $π
r=0 ϕ=0 ϑ=0
K1
=
$1 $2π
r
$1 $2π
r3
$1 $2π
r3 (0 − 0) dϕ dr = 0.
r=0 ϕ=0
=
r=0 ϕ=0
=
r=0 ϕ=0 1
r cos ϑ · r2 sin ϑ dϑ dϕ dr
3
$π
cos ϑ sin ϑ dϑ dϕ dr
ϑ=0
1
2
π sin2 ϑ
ϑ=0
dϕ dr
bei dem Integrationsbereich D ⊂ R3 entsprechenden Integrationsgrenzen f¨ ur r, ϕ und ϑ
980
258
11 Integration bei mehreren Ver¨ anderlichen
Dieses Ergebnis ist auch durch Symmetriebetrachtungen klar, denn durch die Funktion f ist die Kugel K1 mit positiven Werten (oberhalb der (x, y)Ebene) und negativen Werten (unterhalb der (x, y)-Ebene) symmetrisch gef¨ ullt, die sich bei der Integration genau aufheben. 2. Integriert man die konstante Funktion 1, so erh¨ alt das Volumen des Integrationsbereichs. Insbesondere kann man auf diese Weise das Volumen einer Kugel mit Radius R durch Integration in Kugelkoordinaten erhalten: V =
$R $2π $π
r=0 ϕ=0 ϑ=0
=
$R
r=0
2
1 · r2 sin ϑ dϑ dϕ dr
r dr · 2π ·
$π
ϑ=0
sin ϑ dϑ
R 4 1 3 r · 2π · 2 = πR3 . = 3 0 3
Sachverzeichnis
A abc-Formel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 Ableitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 der Umkehrfunktion . . . . . . . . . . . . . . . . . . 102 h¨ ohere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 numerische . . . . . . . . . . . . . . . . . . . . . . . 96, 231 partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227 Rechenregeln . . . . . . . . . . . . . . . . . . . . . . . . . . 98 Tabelle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .104 absolut konvergent . . . . . . . . . . . . . . . . . . . . . . 78 Abstand Punkt-Ebene . . . . . . . . . . . . . . . . . . . . . . . . . 177 Punkt-Gerade . . . . . . . . . . . . . . . . . . . . . . . . 177 Punkt-Punkt . . . . . . . . . . . . . . . . . . . . . . . . . 157 zweier Geraden. . . . . . . . . . . . . . . . . . . . . . .177 achsensymmetrisch . . . . . . . . . . . . . . . . . . . . . . 33 Additionstheoreme . . . . . . . . . . . . . . . . . . . . . . 27 Herleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62 aquidistante Zerlegung . . . . . . . . . . . . . . . . . 120 ¨ allgemeine L¨ osung . . . . . . . . . . . . . . . . . . . . . . 190 Approximation . . . . . . . . . . . . . siehe N¨ aherung Arcus-Funktionen . . . . . . . . . . . . . . . . . . . . . . . 40 Ableitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 Area-Funktionen . . . . . . . . . . . . . . . . . . . . . . . . 44 Aufleiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 B Basis einer Potenz. . . . . . . . . . . . . . . . . . . . . . . . . . .30 eines Vektorraums . . . . . . . . . . . . . . . . . . . 151 kanonische . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 beschr¨ ankt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 Betrag als Funktion. . . . . . . . . . . . . . . . . . . . . . . . . . .32 einer komplexen Zahl . . . . . . . . . . . . . . . . . . 51 einer Zahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 eines Vektors . . . . . . . . . . . . . . . . . . . . . . . . . 155 bijektiv . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 Bildmenge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Bisektionsverfahren . . . . . . . . . . . . . . . . . . . . . . 91 Bogenmaß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
C Cauchy-Schwarzsche Ungleichung . . . . . . . 156 charakteristisches Polynom . . . . . . . . . . . . . 212 Cosinus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24, 26 Ableitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 Stammfunktion . . . . . . . . . . . . . . . . . . . . . . 131 Cosinus hyperbolicus . . . . . . . . . . . . . . . . . . . . 31 Ableitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 Stammfunktion . . . . . . . . . . . . . . . . . . . . . . 131 Cotangens . . . . . . . . . . . . . . . . . . . . . . . . . . . 24, 26 Ableitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 Cramersche Regel . . . . . . . . . . . . . . . . . . . . . . 211 D de L’Hospital, Regel von. . . . . . . . . . . . . . . .111 Definitionsmenge . . . . . . . . . . . . . . . . . . . . . . . . . 1 Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . 206 Differenzenquotient . . . . . . . . . . . . . . . . . . . . . . 94 Differenzialrechnung . . . . . . . . siehe Ableitung differenzierbar . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 Dimension. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 divergent . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65, 71 Dreiecksungleichung . . . . . . . . . . . . . 32, 51, 156 E Ebene . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169 Normalendarstellung . . . . . . . . . . . . . . . . . 170 Parameterdarstellung . . . . . . . . . . . . . . . . 169 echt gebrochen rational . . . . . . . . . . . . . . . . . . 19 Eigenvektor . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212 Eigenwert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212 Einheitsmatrix . . . . . . . . . . . . . . . . . . . . . . . . . 203 elementare Zeilenoperationen . . . . . . . . . . . 185 Entwicklungssatz, Laplacescher . . . . . . . . . 208 ε-Umgebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 Erzeugendensystem eines Vektorraums . . . . . . . . . . . . . . . . . . . 149 Euler-Formel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 eulersche Zahl . . . . . . . . . . . . . . . . . . . . 30, 70, 80 Exponent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 Exponentialfunktion . . . . . . . . . . . . . . . . . 30, 80
© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 G. Hoever, Höhere Mathematik kompakt, https://doi.org/10.1007/978-3-662-62080-9
259
260 Ableitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 Stammfunktion . . . . . . . . . . . . . . . . . . . . . . 131 Extremstelle. . . . . . . . . . . . . . . . . . . . . . . . . . . .105 hinreichende Bedingung . . . . . . . . . 107, 246 notwendige Bedingung. . . . . . . . . . .106, 233 F Fakult¨ at . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 Falk-Schema . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 Fl¨ achenfunktion . . . . . . . . . . . . . . . . . . . . . . . . 130 Folge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 beschr¨ ankte . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 bestimmt divergente . . . . . . . . . . . . . . . . . . . 69 divergente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 eigentlich konvergente . . . . . . . . . . . . . . . . . 69 Grenzwert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 konvergente . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 monotone . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 rekursive Definition . . . . . . . . . . . . . . . . . . . 68 streng monotone . . . . . . . . . . . . . . . . . . . . . . 64 Fubini, Satz von . . . . . . . . . . . . . . . . . . . . . . . . 250 Fundamentalsatz der Algebra . . . . . . . . . . . . 57 Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 differenzierbare . . . . . . . . . . . . . . . . . . . . . . . . 93 Fl¨ achen- . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 gebrochen rationale . . . . . . . . . . . . . . . . . . . 19 gerade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 Grenzwert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 hyperbolische . . . . . . . . . . . . . . . . . . . . . . . . . 31 integrierbare . . . . . . . . . . . . . . . . . . . . . . . . . 120 Komposition . . . . . . . . . . . . . . . . . . . . . . . . . . 45 lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Modifikation . . . . . . . . . . . . . . . . . . . . . . . . . . 45 monotone . . . . . . . . . . . . . . . . . . . . . . . . 34, 105 partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220 quadratische. . . . . . . . . . . . . . . . . . . . . . . . . . . .6 Skalierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 Spiegelung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 stetig differenzierbare . . . . . . . . . . . . . . . . . 97 stetige . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 trigonometrische . . . . . . . . . . . . . . . . . . . 24, 26 Umkehr- . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 ungerade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 Verkettung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 Verschiebung . . . . . . . . . . . . . . . . . . . . . . . . . . 46 G Gauß-Jordan-Verfahren . . . . . . . . . . . . . . . . . 203 Gaußsche Zahlenebene . . . . . . . . . . . . . . . . . . . 50 Gaußsches Eliminationsverfahren . . . . . . . 185 gebrochen rationale Funktion . . . . . . . . . . . . 19 Stammfunktion. . . . . . . . . . . . . . . . . .131, 141 geometrische Reihe . . . . . . . . . . . . . . . . . . . . . . 72 Gerade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2, 164 gerade Funktion . . . . . . . . . . . . . . . . . . . . . . . . . 33
Sachverzeichnis Gleichungssystem homogenes . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 inhomogenes . . . . . . . . . . . . . . . . . . . . . . . . . 182 L¨ osungsstruktur . . . . . . . . . . . . . . . . . . . . . . 183 globale Extremstelle . . . . . . . . . . . . . . . . . . . . 105 Gradient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229 in Kugelkoordinaten . . . . . . . . . . . . . . . . . 232 in Zylinderkoordinaten . . . . . . . . . . . . . . . 232 Gradientenverfahren . . . . . . . . . . . . . . . . . . . . 230 Grenzwert einer Folge . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 einer Funktion . . . . . . . . . . . . . . . . . . . . . . . . 85 einer Reihe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 H h¨ ohere Ableitung . . . . . . . . . . . . . . . . . . . . . . . . 97 harmonische Reihe . . . . . . . . . . . . . . . . . . . . . . 74 Heaviside-Funktion . . . . . . . . . . . . . . . . . . . . . . . 6 Heavside-Funktion . . . . . . . . . . . . . . . . . . . . . . . 86 hermitesche Matrix . . . . . . . . . . . . . . . . . . . . . 198 Hesse-Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . 244 Hessesche Normalendarstellung . . . . . . . . . 171 homogenes Gleichungssystem . . . . . . . . . . . 182 hyperbolische Funktionen . . . . . . . . . . . . . . . . 31 Ableitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 I imagin¨ are Einheit . . . . . . . . . . . . . . . . . . . . . . . 49 Imagin¨ arteil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 indefinit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215 inhomogenes Gleichungssystem . . . . . . . . . 182 injektiv . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 Integral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 unbestimmtes . . . . . . . . . . . . . . . . . . . . . . . . 131 uneigentliches . . . . . . . . . . . . . . . . . . . . . . . . 123 Integralrechnung Hauptsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 in einer Variablen . . . . . . . . . . . . . . . . . . . . 119 in mehreren Variablen . . . . . . . . . . . . . . . . 249 Tabelle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .131 Integration durch Partialbruchzerlegung . . . . . . . . . . 141 durch Substitution . . . . . . . . . . . . . . 136, 138 in einer Variablen . . . . . . . . . . . . . . . . . . . . 119 in Kugelkoordinaten . . . . . . . . . . . . . . . . . 257 in mehreren Variablen . . . . . . . . . . . . . . . . 249 in Polarkoordinaten . . . . . . . . . . . . . . . . . . 253 in Zylinderkoordinaten . . . . . . . . . . . . . . . 256 partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134 integrierbar . . . . . . . . . . . . . . . . . . . . . . . . 120, 250 Intervallhalbierungsverfahren . . . . . . . . . . . . 91 inverse Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . 202 invertierbar . . . . . . . . . . . . . . . . . . . . . . . . 202, 210 J Jacobi-Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . 235
Sachverzeichnis K kartesische Koordinaten . . . . . . . . . . . . . . . . 221 Kettenregel . . . . . . . . . . . . . . . . . . . . . . . . 100, 241 Koeffizient. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .15 absoluter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 f¨ uhrender . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 Koeffizientenmatrix. . . . . . . . . . . . . . . . . . . . .185 Koeffizientenvergleich . . . . . . . . . . . . . . . . . . . . 20 komplexe Zahlen . . . . . . . . . . . . . . . . . . . . . . . . 49 Komposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 konjugiert komplex . . . . . . . . . . . . . . . . . . . . . . 52 konkav . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 konvergent . . . . . . . . . . . . . . . . . . . . . . . . . . . 65, 71 absolut . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 Konvergenzradius. . . . . . . . . . . . . . . . . . . . . . . .83 konvex . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 Koordinaten kartesische . . . . . . . . . . . . . . . . . . . . . . . . . . . 221 Kugel- . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225 lokale Kugel- . . . . . . . . . . . . . . . . . . . . . . . . . 226 lokale Zylinder- . . . . . . . . . . . . . . . . . . . . . . 223 Polar- . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221 Zylinder- . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222 Kr¨ ummungsverhalten . . . . . . . . . . . . . . . . . . . 108 Kreuzprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . 161 Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . 162 Kriterium Leibniz- . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 Majoranten- . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 Minoranten- . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 Quotienten- . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 Wurzel- . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 Kugelkoordinaten . . . . . . . . . . . . . . . . . . . . . . 225 Gradient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232 Integration in . . . . . . . . . . . . . . . . . . . . . . . . 257 Kurven . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239 Kurvendiskussion . . . . . . . . . . . . . . . . . . . . . . . 108 L L¨ osung allgemeine . . . . . . . . . . . . . . . . . . . . . . . . . . . 190 spezielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 L¨ ange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155 Laplacescher Entwicklungssatz. . . . . . . . . .208 Leibniz-Kriterium . . . . . . . . . . . . . . . . . . . . . . . 76 Limes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 linear abh¨ angig . . . . . . . . . . . . . . . . . . . . 149, 210 linear unabh¨ angig . . . . . . . . . . . . . 149, 205, 210 lineare Abbildung . . . . . . . . . . . . . . . . . . . . . . 181 lineare Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . 2 lineare N¨ aherung . . . . . . . . . . . . . . . . . . 115, 236 lineares Gleichungssystem . . . . . . . . . . . . . . 180 Linearfaktor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 Linearkombination . . . . . . . . . . . . . . . . . . . . . 147 linksgekr¨ ummt . . . . . . . . . . . . . . . . . . . . . . . . . 108
261 Logarithmen-Regeln . . . . . . . . . . . . . . . . . . . . . 42 logarithmische Skalierung . . . . . . . . . . . . . . . . 44 Logarithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 Ableitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 lokale Extremstelle . . . . . . . . . . . . . . . . . . . . . 105 lokale Kugelkoordinaten . . . . . . . . . . . . . . . . 226 lokale Zylinderkoordinaten . . . . . . . . . . . . . . 223 M Maclaurinsche Reihe. . . . . . . . . . . . . . . . . . . .116 Majorantenkriterium . . . . . . . . . . . . . . . . . . . . 74 Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 Diagonal- . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 Einheits- . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 hermitesche . . . . . . . . . . . . . . . . . . . . . . . . . . 198 Hesse- . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244 indefinite. . . . . . . . . . . . . . . . . . . . . . . . . . . . .215 inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202 Jacobi- . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235 negativ definite . . . . . . . . . . . . . . . . . . . . . . 215 Null- . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 positiv definite . . . . . . . . . . . . . . . . . . . . . . . 215 quadratische . . . . . . . . . . . . . . . . . . . . . . . . . 200 Rechenregeln . . . . . . . . . . . . . . . . . . . . . . . . . 197 regul¨ are . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202 semidefinite . . . . . . . . . . . . . . . . . . . . . . . . . . 216 singul¨ are . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202 symmetrische . . . . . . . . . . . . . . . . . . . . . . . . 200 transponierte. . . . . . . . . . . . . . . . . . . . . . . . .197 Matrix-Matrix-Multiplikation . . . . . . . . . . . 195 Matrix-Vektor-Multiplikation . . . . . . . . . . . 180 Maximalstelle . . . . . . . . . . . . . . . . . . . . . . . . . . 105 hinreichende Bedingung . . . . . . . . . 107, 246 notwendige Bedingung. . . . . . . . . . .106, 233 Minimalstelle . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 hinreichende Bedingung . . . . . . . . . 107, 246 notwendige Bedingung. . . . . . . . . . .106, 233 Minorantenkriterium . . . . . . . . . . . . . . . . . . . . 74 monoton Folge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 Funktion . . . . . . . . . . . . . . . . . . . . . . . . . 34, 105 N N¨ aherung durch Ableitung . . . . . . . . . . . . . . . . . . . . . . . 96 lineare . . . . . . . . . . . . . . . . . . . . . . . . . . 115, 236 quadratische . . . . . . . . . . . . . . . . . . . . 115, 245 negativ definit . . . . . . . . . . . . . . . . . . . . . . . . . . 215 Newton-Verfahren . . . . . . . . . . . . . . . . . . . . . . 112 mehrdimensional . . . . . . . . . . . . . . . . . . . . . 237 Norm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155 Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . 156 Normalendarstellung . . . . . . . . . . . . . . . . . . . 170 Hessesche . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171 Normalenvektor . . . . . . . . . . . . . . . . . . . . . . . . 170
262 Nullfolge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 Nullstelle, Vielfachheit . . . . . . . . . . . . . . . . . . . 18 numerische Ableitung . . . . . . . . . . . . . . . 96, 231 O Obersumme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 orthogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 Ortsvektor . . . . . . . . . . . . . . . . . . . . 144, 165, 169 P p-q-Formel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Parabel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Parameterdarstellung . . . . . . . . . . . . . . . . . . . 169 Partialbruchzerlegung . . . . . . . . . . . . . . . 20, 141 Partialsumme . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 partielle Ableitung . . . . . . . . . . . . . . . . . . . . . 227 partielle Funktion . . . . . . . . . . . . . . . . . . . . . . 220 partielle Integration . . . . . . . . . . . . . . . . . . . . 134 Polardarstellung . . . . . . . . . . . . . . . . . . . . . . . . . 60 Polarkoordinaten . . . . . . . . . . . . . . . . . . . . . . . 221 Integration in . . . . . . . . . . . . . . . . . . . . . . . . 253 Polstelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 Polynom . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 Taylor- . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 positiv definit . . . . . . . . . . . . . . . . . . . . . . . . . . 215 Potenzregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 Potenzreihe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 Konvergenzradius . . . . . . . . . . . . . . . . . . . . . 83 Tabelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 Produktregel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 Punkt, station¨ arer . . . . . . . . . . . . . . . . . . . . . . 234 Punkt-Steigungs-Formel . . . . . . . . . . . . . . . . . . 5 punktsymmetrisch . . . . . . . . . . . . . . . . . . . . . . . 33 Q quadratische Erg¨ anzung . . . . . . . . . . . . . . . . . . 8 quadratische Form. . . . . . . . . . . . . . . . . . . . . .215 quadratische Funktion . . . . . . . . . . . . . . . . . . . . 6 quadratische Matrix . . . . . . . . . . . . . . . . . . . . 200 quadratische N¨ aherung . . . . . . . . . . . . 115, 245 Quotientenkriterium . . . . . . . . . . . . . . . . . . . . . 77 Quotientenregel . . . . . . . . . . . . . . . . . . . . . . . . . 98 R Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 Spalten-. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .199 voller . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 Zeilen- . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199 Realteil. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .51 rechtsgekr¨ ummt . . . . . . . . . . . . . . . . . . . . . . . . 108 Rechtssystem . . . . . . . . . . . . . . . . . . . . . . . . . . . 162 Regel Cramersche . . . . . . . . . . . . . . . . . . . . . . . . . . 211 von de L’Hospital . . . . . . . . . . . . . . . . . . . . 111 von Sarrus . . . . . . . . . . . . . . . . . . . . . . . . . . . 207 regul¨ ar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
Sachverzeichnis Reihe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 alternierende . . . . . . . . . . . . . . . . . . . . . . . . . . 76 divergente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 geometrische . . . . . . . . . . . . . . . . . . . . . . . . . . 72 Grenzwert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 harmonische . . . . . . . . . . . . . . . . . . . . . . 74, 102 konvergente . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 Maclaurinsche . . . . . . . . . . . . . . . . . . . . . . . . 116 Potenz- . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 Taylor- . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 Restglied . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 Richtungsableitung . . . . . . . . . . . . . . . . . . . . . 243 Richtungsvektor . . . . . . . . . . . . . . . . . . . 165, 169 Riemannsche Zwischensumme . . . . . . . . . . 120 S Sarrus, Regel von. . . . . . . . . . . . . . . . . . . . . . .207 Sattelstelle . . . . . . . . . . . . . . . . . . . . . . . . 108, 234 Satz von Fubini . . . . . . . . . . . . . . . . . . . . . . . . . . . 250 von Schwarz . . . . . . . . . . . . . . . . . . . . . . . . . 229 von Vieta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 Scheitelpunkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 Scheitelpunktform . . . . . . . . . . . . . . . . . . . . . . . . 7 Schnittbildung . . . . . . . . . . . . . . . . . . . . . . . . . 251 Schnittpunkt . . . . . . . . . . . . . . . . . . . . . . . . . . . 172 Schwarz, Satz von . . . . . . . . . . . . . . . . . . . . . . 229 semidefinit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216 singul¨ ar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202 Sinus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24, 26 Ableitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 Stammfunktion . . . . . . . . . . . . . . . . . . . . . . 131 Sinus hyperbolicus . . . . . . . . . . . . . . . . . . . . . . . 31 Ableitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 Stammfunktion . . . . . . . . . . . . . . . . . . . . . . 131 skalare Multiplikation bei Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . 194 bei Vektoren . . . . . . . . . . . . . . . . . . . . . . . . . 145 Skalarfeld . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220 Skalarprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . 152 Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . 152 Skalierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 Spaltenrang . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199 Spatprodukt. . . . . . . . . . . . . . . . . . . . . . . . . . . .209 spezielle L¨ osung . . . . . . . . . . . . . . . . . . . . . . . . 183 Spiegelung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .47 Sprungstelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 Stammfunktion . . . . . . . . . . . . . . . . . . . . . . . . . 128 station¨ arer Punkt . . . . . . . . . . . . . . . . . . . . . . 234 Stauchung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 Steigung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3, 93 stetig . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 stetig differenzierbar . . . . . . . . . . . . . . . . . . . . . 97 Streckung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 streng monoton
Sachverzeichnis Folge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 Funktion . . . . . . . . . . . . . . . . . . . . . . . . . 34, 105 Substitution . . . . . . . . . . . . . . . . . . . . . . . 136, 138 surjektiv . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 Symmetrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 symmetrische Matrix . . . . . . . . . . . . . . . . . . . 200 T Tangens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24, 26 Ableitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 Tangente . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93, 95 Taylor-Polynom . . . . . . . . . . . . . . . . . . . . . . . . 115 Taylor-Reihe . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 Taylor-Restglied . . . . . . . . . . . . . . . . . . . . . . . . 116 Teleskopsumme . . . . . . . . . . . . . . . . . . . . . . . . . . 73 totales Differenzial . . . . . . . . . . . . . . . . . . . . . 236 transponierte Matrix . . . . . . . . . . . . . . . . . . . 197 trigonometrische Funktion . . . . . . . . . . . . siehe Winkelfunktion U Umgebung, ε- . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 umkehrbararg . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 Umkehrfunktion . . . . . . . . . . . . . . . . . . . . . . . . . 36 Ableitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 Umordnungssatz . . . . . . . . . . . . . . . . . . . . . . . . . 79 unbestimmtes Integral . . . . . . . . . . . . . . . . . . 131 uneigentliches Integral . . . . . . . . . . . . . . . . . . 123 ungerade Funktion. . . . . . . . . . . . . . . . . . . . . . .33 Untersumme . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 V Vektor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143, 146 Betrag . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155 L¨ ange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155 Norm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155 orthogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 Winkel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162 Vektorfeld . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
263 Vektorprodukt . . . . . . . . . . . . . . . . . . . . . . . . . 161 Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . 162 Vektorraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 Verkettung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 Verschiebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 Vielfachheit einer Nullstelle . . . . . . . . . . . . . . 18 Vieta, Satz von . . . . . . . . . . . . . . . . . . . . . . . . . . 10 voller Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 W Wendestelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 windschief . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175 Winkel im Bogenmaß . . . . . . . . . . . . . . . . . . . . . . . . . 25 zwischen Vektoren . . . . . . . . . . . . . . . . . . . 158 Winkelfunktion . . . . . . . . . . . . . . . . . . . . . . 24, 26 Ableitung . . . . . . . . . . . . . . . . . . . . . . . . 98, 101 Stammfunktion . . . . . . . . . . . . . . . . . . . . . . 131 Wurzelfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . 38 Ableitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 Stammfunktion . . . . . . . . . . . . . . . . . . . . . . 131 Wurzelkriterium . . . . . . . . . . . . . . . . . . . . . . . . . 77 Y y-Achsenabschnitt . . . . . . . . . . . . . . . . . . . . . . . . 3 Z Zeiger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 Zeilen-Stufen-Form . . . . . . . . . . . . . . . . . . . . . 185 Zeilenrang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199 Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . 119, 250 aquidistante . . . . . . . . . . . . . . . . . . . . . . . . . . 120 ¨ Zielmenge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Zwischenstellen . . . . . . . . . . . . . . . . . . . . . . . . . 120 Zwischensumme, Riemannsche . . . . . . . . . . 120 Zylinderkoordinaten . . . . . . . . . . . . . . . . . . . . 222 Gradient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232 Integration in . . . . . . . . . . . . . . . . . . . . . . . . 256
springer-spektrum.de
Jetzt im Springer-Shop bestellen: springer.com/978-3-662-47001-5
springer.com
Willkommen zu den Springer Alerts Unser Neuerscheinungs-Service für Sie: aktuell | kostenlos | passgenau | flexibel
Mit dem Springer Alert-Service informieren wir Sie individuell und kostenlos über aktuelle Entwicklungen in Ihren Fachgebieten. Abonnieren Sie unseren Service und erhalten Sie per E-Mail frühzeitig Meldungen zu neuen Zeitschrifteninhalten, bevorstehenden Buchveröffentlichungen und speziellen Angeboten. Sie können Ihr Springer Alerts-Profil individuell an Ihre Bedürfnisse anpassen. Wählen Sie aus über 500 Fachgebieten Ihre Interessensgebiete aus. Bleiben Sie informiert mit den Springer Alerts.
Mehr Infos unter: springer.com/alert A82259 | Image: © Molnia / Getty Images / iStock
Jetzt anmelden!